Surgery: Mitigation von schädlichem Fine‑Tuning bei LLMs durch Attention Sink
Schädliches Fine‑Tuning kann die Sicherheitsausrichtung großer Sprachmodelle zunichte machen und erhebliche Risiken bergen. In der neuen Studie wird ein Mechanismus namens Attention Sink eingesetzt, um diese Gefahren zu…
- Schädliches Fine‑Tuning kann die Sicherheitsausrichtung großer Sprachmodelle zunichte machen und erhebliche Risiken bergen.
- In der neuen Studie wird ein Mechanismus namens Attention Sink eingesetzt, um diese Gefahren zu reduzieren.
- Dabei wird ein Kennwert namens „Sink‑Divergenz“ für jede Aufmerksamkeits‑Kopf berechnet, der zeigt, dass unterschiedliche Köpfe unterschiedliche Divergenz‑Zeichen aufwei…
Schädliches Fine‑Tuning kann die Sicherheitsausrichtung großer Sprachmodelle zunichte machen und erhebliche Risiken bergen. In der neuen Studie wird ein Mechanismus namens Attention Sink eingesetzt, um diese Gefahren zu reduzieren. Dabei wird ein Kennwert namens „Sink‑Divergenz“ für jede Aufmerksamkeits‑Kopf berechnet, der zeigt, dass unterschiedliche Köpfe unterschiedliche Divergenz‑Zeichen aufweisen.
Die Autoren untersuchten, wie sich die Sink‑Divergenz auf die Sicherheit auswirkt. Sie stellten fest, dass die Anzahl der Köpfe mit positiver Divergenz mit zunehmender Gefährlichkeit des Modells steigt, wenn schädliches Fine‑Tuning durchgeführt wird. Daraus folgte die Hypothese, dass Köpfe, die schädliche Muster lernen, anhand ihres Divergenz‑Zeichens separierbar sind.
Auf dieser Grundlage entwickelte das Team die Verteidigungsstrategie „Surgery“. Sie fügt dem Fine‑Tuning einen Regularisierer hinzu, der die Sink‑Divergenz dämpft und die Köpfe in die Gruppe mit negativer Divergenz lenkt. Dadurch wird die Neigung des Modells, schädliche Muster zu erlernen und zu verstärken, verringert.
Umfangreiche Experimente zeigen, dass Surgery die Verteidigungsleistung um 5,90 %, 11,25 % bzw. 9,55 % auf den Benchmarks BeaverTails, HarmBench und SorryBench verbessert. Der Quellcode ist auf GitHub verfügbar.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.