Leak@$k$: Unlearning lässt LLMs unter probabilistischer Decodierung nicht vergessen
Unlearning in großen Sprachmodellen ist entscheidend, um regulatorische Vorgaben zu erfüllen und ethische KI-Systeme zu bauen, die keine privaten, toxischen, illegalen oder urheberrechtlich geschützten Inhalte erzeugen…
- Unlearning in großen Sprachmodellen ist entscheidend, um regulatorische Vorgaben zu erfüllen und ethische KI-Systeme zu bauen, die keine privaten, toxischen, illegalen o…
- In einer neuen Untersuchung wird gezeigt, dass nahezu alle derzeitigen Unlearning‑Methoden in der Praxis nicht zu echtem Vergessen führen.
- Während Tests mit deterministischer (greedy) Decodierung häufig den Eindruck erwecken, das Wissen sei erfolgreich entfernt, taucht bei probabilistischer Decodierung sens…
Unlearning in großen Sprachmodellen ist entscheidend, um regulatorische Vorgaben zu erfüllen und ethische KI-Systeme zu bauen, die keine privaten, toxischen, illegalen oder urheberrechtlich geschützten Inhalte erzeugen.
In einer neuen Untersuchung wird gezeigt, dass nahezu alle derzeitigen Unlearning‑Methoden in der Praxis nicht zu echtem Vergessen führen. Während Tests mit deterministischer (greedy) Decodierung häufig den Eindruck erwecken, das Wissen sei erfolgreich entfernt, taucht bei probabilistischer Decodierung sensible Information zuverlässig wieder auf.
Um diese Schwachstelle präzise zu messen, wurde die neue Metrik leak@$k$ entwickelt. Sie quantifiziert die Wahrscheinlichkeit, dass vergessene Inhalte wieder auftauchen, wenn ein Modell k Stichproben unter realistischen Decodierungsstrategien erzeugt.
Mit den drei weit verbreiteten Benchmarks TOFU, MUSE und WMDP wurde ein umfassendes, systematisches Experiment durchgeführt – das erste seiner Art, das die Zuverlässigkeit von Unlearning anhand von leak@$k$ bewertet.
Die Ergebnisse zeigen, dass Wissenslecks über alle getesteten Methoden und Aufgaben hinweg bestehen bleiben. Damit wird deutlich, dass die aktuellen Spitzenansätze im Unlearning nur begrenztes Vergessen ermöglichen und ein dringender Bedarf an robusteren Verfahren besteht.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.