Effizientes Unlearning: Weniger Daten, weniger Rechenaufwand
Anzeige
In einer Zeit, in der Datenschutz im maschinellen Lernen immer wichtiger wird, zeigt die neue Studie von arXiv, wie man gezielt Datenpunkte entfernen kann, die kaum Einfluss auf ein Modell haben. Statt alle zu verwerfen, identifiziert die Arbeit mithilfe von Einflussfunktionen jene Trainingsbeispiele, die das Ergebnis kaum verändern.
Durch das Vorfiltern dieser „gering einflussreichen“ Punkte kann die Größe der zu verarbeitenden Daten drastisch reduziert werden. Das Ergebnis: Beim Unlearning werden bis zu 50 % weniger Rechenressourcen benötigt – ein bedeutender Gewinn für reale Anwendungen in Sprache und Bildverarbeitung.
Ähnliche Artikel
arXiv – cs.LG
•
Selbstfahrendes Labor beschleunigt Entwicklung von elektrochromen Dünnschichten
arXiv – cs.LG
•
Rashomon-Sets: doppelschneidiges Potenzial für maschinelles Lernen
arXiv – cs.AI
•
LLM-Entlernen: Forgetting-MarI entfernt gezielt nur marginale Infos
arXiv – cs.LG
•
FAIRPLAI: Menschliche Kontrolle für faire und private KI
MIT Technology Review – Artificial Intelligence
•
DeepSeek may have found a new way to improve AI’s ability to remember
The Register – Headlines
•
Oracle: Larry Ellison verkündet die Vektorisierung aller Kunden