STaR: LLMs mit langsamer Denkweise verbessern Tabellenanalyse
Ein neues Forschungsprojekt namens STaR (Slow‑Thinking for Table Reasoning) zeigt, wie große Sprachmodelle (LLMs) ihre Fähigkeit zur Analyse von Tabellen deutlich steigern können. Durch die Einführung einer langsamen, schrittweisen Denkweise werden die Modelle in der Lage, komplexe Fragen systematisch zu bearbeiten und dabei Unsicherheiten besser zu berücksichtigen.
Der Ansatz nutzt ein zweistufiges, schwierigkeitsgerechtes Reinforcement‑Learning, bei dem die Modelle zunächst einfache Aufgaben lösen und sich anschließend an anspruchsvollere Fragestellungen anpassen. Während des Inferenzprozesses quantifiziert STaR die Unsicherheit auf Trajektorienebene, indem es die Token‑Vertrauenswerte mit der Konsistenz der Antworten kombiniert. Dadurch kann das System die glaubwürdigsten Lösungswege auswählen.
Ergebnisse aus umfangreichen Benchmark‑Tests zeigen, dass STaR nicht nur die Genauigkeit der Tabellenanalyse verbessert, sondern auch die Stabilität der Ergebnisse erhöht. Besonders beeindruckend ist die starke Generalisierung auf Datensätze außerhalb des Trainingsbereichs, was STaR als zuverlässige, kognitiv inspirierte Lösung für die Verarbeitung strukturierter Daten positioniert.