Effizientes Unlearning: Weniger Daten, weniger Rechenaufwand

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In einer Zeit, in der Datenschutz im maschinellen Lernen immer wichtiger wird, zeigt die neue Studie von arXiv, wie man gezielt Datenpunkte entfernen kann, die kaum Einfluss auf ein Modell haben. Statt alle zu verwerfen, identifiziert die Arbeit mithilfe von Einflussfunktionen jene Trainingsbeispiele, die das Ergebnis kaum verändern.

Durch das Vorfiltern dieser „gering einflussreichen“ Punkte kann die Größe der zu verarbeitenden Daten drastisch reduziert werden. Das Ergebnis: Beim Unlearning werden bis zu 50 % weniger Rechenressourcen benötigt – ein bedeutender Gewinn für reale Anwendungen in Sprache und Bildverarbeitung.

Ähnliche Artikel