Forschung arXiv – cs.LG

Leak@$k$: Unlearning lässt LLMs unter probabilistischer Decodierung nicht vergessen

Unlearning in großen Sprachmodellen ist entscheidend, um regulatorische Vorgaben zu erfüllen und ethische KI-Systeme zu bauen, die keine privaten, toxischen, illegalen oder urheberrechtlich geschützten Inhalte erzeugen…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Unlearning in großen Sprachmodellen ist entscheidend, um regulatorische Vorgaben zu erfüllen und ethische KI-Systeme zu bauen, die keine privaten, toxischen, illegalen o…
  • In einer neuen Untersuchung wird gezeigt, dass nahezu alle derzeitigen Unlearning‑Methoden in der Praxis nicht zu echtem Vergessen führen.
  • Während Tests mit deterministischer (greedy) Decodierung häufig den Eindruck erwecken, das Wissen sei erfolgreich entfernt, taucht bei probabilistischer Decodierung sens…

Unlearning in großen Sprachmodellen ist entscheidend, um regulatorische Vorgaben zu erfüllen und ethische KI-Systeme zu bauen, die keine privaten, toxischen, illegalen oder urheberrechtlich geschützten Inhalte erzeugen.

In einer neuen Untersuchung wird gezeigt, dass nahezu alle derzeitigen Unlearning‑Methoden in der Praxis nicht zu echtem Vergessen führen. Während Tests mit deterministischer (greedy) Decodierung häufig den Eindruck erwecken, das Wissen sei erfolgreich entfernt, taucht bei probabilistischer Decodierung sensible Information zuverlässig wieder auf.

Um diese Schwachstelle präzise zu messen, wurde die neue Metrik leak@$k$ entwickelt. Sie quantifiziert die Wahrscheinlichkeit, dass vergessene Inhalte wieder auftauchen, wenn ein Modell k Stichproben unter realistischen Decodierungsstrategien erzeugt.

Mit den drei weit verbreiteten Benchmarks TOFU, MUSE und WMDP wurde ein umfassendes, systematisches Experiment durchgeführt – das erste seiner Art, das die Zuverlässigkeit von Unlearning anhand von leak@$k$ bewertet.

Die Ergebnisse zeigen, dass Wissenslecks über alle getesteten Methoden und Aufgaben hinweg bestehen bleiben. Damit wird deutlich, dass die aktuellen Spitzenansätze im Unlearning nur begrenztes Vergessen ermöglichen und ein dringender Bedarf an robusteren Verfahren besteht.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Unlearning
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Große Sprachmodelle
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Leak@k
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen