GLOSS: Neue Methode eliminiert toxische Subräume in Sprachmodellen
Large Language Models (LLMs) liefern beeindruckende Ergebnisse, doch ihre Fähigkeit, toxische Inhalte zu erzeugen, stellt ein ernsthaftes Sicherheitsrisiko dar. Klassische Ansätze wie die Ausrichtung der Ausgabepräferen…