REMISVFU: Schnelles Federated Unlearning für Vertical Learning

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Mit dem neuen Ansatz REMISVFU wird das Recht auf Vergessen im Rahmen von Vertical Federated Learning (VFL) endlich praktisch umsetzbar. Während bisherige Unlearning‑Methoden vor allem auf Horizontal Federated Learning (HFL) abzielen, wo Daten nach Proben aufgeteilt sind, nutzt VFL die komplementären Feature‑Sätze mehrerer Organisationen, ohne rohe Daten zu teilen. Diese Architektur macht herkömmliche HFL‑Techniken ungeeignet, weshalb REMISVFU als Plug‑and‑Play‑Framework entwickelt wurde.

Bei einer Löschanfrage reduziert der betroffene Client seine Encoder‑Ausgabe auf einen zufällig ausgewählten Ankerpunkt auf der Einheitskugel. Dadurch wird die statistische Verbindung zwischen den eigenen Features und dem globalen Modell unterbrochen. Gleichzeitig optimiert der Server gleichzeitig einen Retention‑Loss und einen Forgetting‑Loss und projiziert deren Gradienten orthogonal zueinander, um destruktive Interferenzen zu vermeiden. Das Ergebnis ist ein schneller, client‑level Unlearning‑Prozess, der die Modellleistung der verbleibenden Partner kaum beeinträchtigt.

Evaluierungen auf öffentlichen Benchmarks zeigen, dass REMISVFU die Erfolgsrate von Back‑Door‑Angriffen auf das natürliche Klassen‑Prioritätsniveau zurücksetzt und gleichzeitig nur etwa 2,5 % der sauberen Genauigkeit verliert. Damit übertrifft es die aktuellen State‑of‑the‑Art‑Baselines deutlich und demonstriert, dass Federated Unlearning in VFL‑Systemen nicht nur möglich, sondern auch effizient und sicher ist.

Ähnliche Artikel