LLM-Entlernen: Forgetting-MarI entfernt gezielt nur marginale Infos

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Mit dem stetig wachsenden Datenvolumen, das moderne KI‑Modelle antreibt, wird das gezielte Entfernen von spezifischen Informationen immer wichtiger – sei es zum Schutz der Privatsphäre oder zur Einhaltung gesetzlicher Vorgaben. Das neue Verfahren Forgetting-MarI bietet hierfür eine elegante Lösung, die genau das tut, was es soll: nur die zusätzlichen, marginalen Daten, die ein bestimmter Datensatz dem Modell hinzufügt, werden entfernt, während die übrigen, nützlichen Informationen erhalten bleiben.

Im Gegensatz zu bisherigen Methoden, die oft zu viel Wissen aus dem Modell herausziehen und dadurch die Leistung beeinträchtigen, nutzt Forgetting-MarI eine gezielte Regularisierung der marginalen Information. Dadurch erhält man eine klare obere Schranke für den verbleibenden Einfluss des zu entfernenden Datensatzes – ein mathematischer Beweis dafür, dass das Modell die gewünschten Daten wirklich „vergisst“.

Umfangreiche Experimente zeigen, dass Forgetting-MarI die aktuelle Spitzenleistung bei Unlearning‑Methoden übertrifft. Es liefert nicht nur zuverlässiges Vergessen, sondern bewahrt auch die generelle Leistungsfähigkeit des Modells über verschiedene Benchmarks hinweg. Damit stellt dieses Verfahren einen bedeutenden Fortschritt dar, um KI‑Systeme kontrollierbarer und regelkonformer zu machen, ohne dabei an Effektivität einzubüßen.

Ähnliche Artikel