Neue Methode erklärt und steuert KI-Verhalten mit „Verfassungen“
Ein neues Framework für die Black‑Box‑Interpretierbarkeit von KI-Modellen hat die Forschung revolutioniert. Durch das Lernen einer überprüfbaren „Verfassung“ – einer natürlichen Sprachzusammenfassung, die beschreibt, wie sich Änderungen an einem Prompt auf das Verhalten des Modells auswirken – können Entwickler nun gezielt die Ausgaben steuern.
Der Schlüssel liegt in atomaren Konzeptänderungen (ACEs), gezielten Operationen, die ein interpretierbares Konzept im Prompt hinzufügen, entfernen oder ersetzen. Indem diese ACEs systematisch angewendet und die daraus resultierenden Effekte beobachtet werden, entsteht ein kausales Mapping von Eingaberevisionen zu vorhersehbaren Ergebnissen. Dieses Mapping liefert tiefgreifende, generalisierbare Einblicke in das Modellverhalten.
Die Methode wurde erfolgreich auf verschiedensten Aufgaben getestet, darunter mathematisches Denken und Text‑zu‑Bild‑Alignment. Dabei zeigte sich, dass GPT‑Image bei Bildgenerierung vor allem die grammatikalische Kohärenz betont, während Imagen 4 stärker auf atmosphärische Konsistenz achtet. Im Bereich der mathematischen Logik verwirren Ablenkungsvariablen GPT‑5, bleiben Gemini 2.5 und o4‑mini jedoch weitgehend unbeeinträchtigt.
Besonders beeindruckend ist die Effektivität der erlernten Verfassungen zur Steuerung des Modells: Im Vergleich zu Ansätzen ohne Verfassungen steigt die Erfolgsrate durchschnittlich um das 1,86‑fache. Diese Fortschritte markieren einen bedeutenden Schritt hin zu transparenteren und kontrollierbareren KI-Systemen.