ReflCtrl: LLMs gezielt reflektieren – Einsparung von bis zu 33,6 % Rechenaufwand

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Moderne Sprachmodelle, die mit Chain‑of‑Thought‑Logik arbeiten, zeigen beeindruckende Leistungen in Mathematik, Programmieren und allgemeinem Denken. Ein besonderes Merkmal dieser Modelle ist die Fähigkeit zur Selbstreflexion – sie können ihre eigenen Denkschritte prüfen und bei Bedarf anpassen. Diese Reflexion verbessert zwar die Genauigkeit, kostet aber gleichzeitig mehr Rechenzeit.

In der neuen Studie wird die Selbstreflexion aus Sicht der Repräsentations‑Engineering untersucht. Das Team zerlegt die Argumentationskette in einzelne Schritte, identifiziert diejenigen, die der Reflexion entsprechen, und extrahiert daraus eine Richtung im latenten Raum, die dieses Verhalten steuert. Auf Basis dieser Richtung entwickelt das Verfahren ReflCtrl einen schrittweisen Steuerungsmechanismus, mit dem die Häufigkeit der Reflexion gezielt reduziert werden kann.

Die Experimente zeigen, dass insbesondere bei leistungsstarken Modellen viele Reflexionen überflüssig sind. Durch ReflCtrl lassen sich bis zu 33,6 % der Rechen­tokens einsparen, ohne die Leistung zu beeinträchtigen. Zudem weist das Modell eine starke Korrelation zwischen Reflexionsverhalten und einem internen Unsicherheitssignal auf, was darauf hindeutet, dass Selbstreflexion durch die wahrgenommene Unsicherheit gesteuert werden kann.

Ähnliche Artikel