CBMAS: Aktivierungssteuerung entschlüsselt kognitive Muster von LLMs

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Ein neues Forschungsprojekt namens CBMAS hat einen innovativen Ansatz vorgestellt, um das Verhalten großer Sprachmodelle besser zu verstehen und gezielt zu steuern. Die Autoren zeigen, wie man die oft unvorhersehbaren kognitiven Reaktionen von LLMs systematisch diagnostizieren kann.

Große Sprachmodelle verhalten sich häufig unterschiedlich, je nachdem, welche Eingabe, welche Schicht oder welcher Kontext verwendet wird. Diese Variabilität erschwert es, die Modelle zu kontrollieren und ihre Entscheidungen nachzuvollziehen. CBMAS adressiert dieses Problem, indem es ein kontinuierliches Aktivierungssteuerungsframework entwickelt.

Im Kern kombiniert CBMAS die Konstruktion von Steuerungsvektoren mit dichten Alpha‑Sweep‑Analysen, Logit‑Lens‑basierte Bias‑Kurven und eine Schicht‑und‑Ort‑Sensitivitätsanalyse. Durch diese Methoden lassen sich kritische Schwellenpunkte identifizieren, bei denen schon kleine Eingriffe das Verhalten des Modells umkehren. Gleichzeitig wird sichtbar, wie sich die Steuerungseffekte über die Tiefe der Schichten hinweg entwickeln.

Die Autoren betonen, dass diese kontinuierlichen Diagnosen eine Brücke zwischen hochrangiger Verhaltensbewertung und tiefgreifenden Repräsentationsdynamiken schlagen. Damit wird die kognitive Interpretierbarkeit von LLMs deutlich verbessert und neue Möglichkeiten für die gezielte Modellsteuerung eröffnet.

Für die Community steht ein Command‑Line‑Interface sowie Datensätze zu verschiedenen kognitiven Verhaltensweisen bereit. Alle Materialien können im Projekt‑Repository unter https://github.com/shimamooo/CBMAS heruntergeladen werden.

Ähnliche Artikel