Think in Blocks: Adaptive Block‑Logik reduziert Überdenken und erhöht Effizienz

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Große Sprachmodelle (LLMs) nutzen zunehmend Ketten‑von‑Denken, um komplexe logische Aufgaben zu lösen. Doch je länger die Kette, desto mehr Rechenzeit wird verschwendet und die Antwortzeit verlängert sich. Die Frage lautet: Kann ein Modell die Länge seiner Überlegungen je nach Schwierigkeitsgrad eines Problems selbst anpassen?

Die neue „Think in Blocks“-Methode bietet die Antwort. Sie teilt den Denkprozess in eine anpassbare Anzahl von Blöcken auf. Zunächst schätzt das Modell ein ganzzahliges Budget an Blöcken, dann strukturiert es seine Argumentation entsprechend. So kann das System bei einfachen Aufgaben kurz bleiben und bei komplexen Problemen tiefer gehen.

Der Ansatz besteht aus drei Schritten: Erst wird das Modell mit überwachten Daten feinjustiert. Anschließend wird es durch belohnungs‑geleitete Präferenzoptimierung weiter trainiert, und schließlich kommt noch ein Reinforcement‑Learning‑Schritt hinzu, der die Tiefe der Überlegung an die Problemkomplexität anpasst. Durch die explizite Blockzahl kann die Tiefe der Kette bei der Ausführung flexibel gesteuert werden, was die Effizienz in der Praxis deutlich verbessert.

Ähnliche Artikel