Federated Unlearning: Neues Min–Max-Framework mit f-Divergenz

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Federated Learning (FL) hat sich als leistungsstarkes Paradigma für kollaboratives maschinelles Lernen etabliert, indem es Daten lokal hält und damit die Privatsphäre schützt. Gleichzeitig steigen die gesetzlichen und ethischen Anforderungen – etwa das „Recht auf Vergessen“ – und die Notwendigkeit, Datenvergiftungsangriffe zu verhindern, die Dringlichkeit für systematisches Daten‑Unlearning in FL deutlich.

Im Gegensatz zu zentralen Systemen erschwert die verteilte Struktur von FL die Entfernung einzelner Datenbeiträge. Das neue Verfahren adressiert dieses Problem, indem es Unlearning als Min–Max‑Optimierungsaufgabe formuliert. Ziel ist es, die f‑Divergenz zwischen einem Modell, das mit allen Daten trainiert wurde, und einem Modell, das ohne bestimmte Datenpunkte neu trainiert wird, zu maximieren, während gleichzeitig die Leistung auf den verbleibenden Daten minimiert wird.

Das vorgeschlagene Framework kann als Plug‑in in nahezu jedes bestehende Federated‑Learning‑Setup integriert werden. Im Gegensatz zu aktuellen Methoden, die entweder Server‑Degradation erfordern oder Modellarchitektur und -gewichte explizit einbinden, bleibt die Architektur unverändert und die Berechnungen bleiben lokal. Dadurch lässt sich die Auswirkung der Datenentfernung effizient approximieren.

Empirische Tests zeigen, dass das Verfahren im Vergleich zum naiven Retraining erhebliche Beschleunigungen erzielt und gleichzeitig die Modell‑Utility nur minimal beeinträchtigt. Damit bietet es eine praktikable Lösung für die Herausforderungen des Federated Unlearning in realen, datenschutzorientierten Anwendungen.

Ähnliche Artikel