GLOSS: Neue Methode eliminiert toxische Subräume in Sprachmodellen
Large Language Models (LLMs) liefern beeindruckende Ergebnisse, doch ihre Fähigkeit, toxische Inhalte zu erzeugen, stellt ein ernsthaftes Sicherheitsrisiko dar. Klassische Ansätze wie die Ausrichtung der Ausgabepräferenzen können zwar die Toxizität reduzieren, lassen jedoch die zugrunde liegenden toxischen Parameterbereiche unberührt, was die Modelle anfällig für Angriffe macht.
Frühere mechanistische Untersuchungen haben toxische Regionen als „toxische Vektoren“ oder „schichtweise Subräume“ beschrieben. Unsere Analyse zeigt jedoch zwei entscheidende Schwächen: Erstens können entfernte toxische Vektoren durch lineare Kombinationen harmloser Vektoren wiederhergestellt werden, was bedeutet, dass der gesamte toxische Subraum adressiert werden muss. Zweitens führt die Verwendung eines kontrastiven Ziels mit begrenzten Stichproben zu Rauschen in den schichtweisen Subräumen, was die stabile Extraktion erschwert.
Auf dieser Grundlage stellen wir GLOSS (GLobal tOxic Subspace Suppression) vor – eine leichte Methode, die die toxische Subraumkomponente aus den FFN‑Parametern entfernt. GLOSS arbeitet ohne umfangreiches Retraining und bewahrt gleichzeitig die allgemeinen Fähigkeiten des Modells.
Experimentelle Ergebnisse auf Modellen wie Qwen3 zeigen, dass GLOSS die führende Detoxifikation erreicht und gleichzeitig die Leistungsfähigkeit des Modells weitgehend erhält.