DRTC: Erkennung kritischer Entscheidungsstellen in Sprachmodell-Logik
Die Frage, wie Sprachmodelle lange, komplexe Argumentationsketten aufbauen, bleibt ein zentrales Forschungsproblem. Bisherige Erklärungsansätze markieren meist einzelne Tokens oder Textabschnitte, die mit einer Antwort…
- Die Frage, wie Sprachmodelle lange, komplexe Argumentationsketten aufbauen, bleibt ein zentrales Forschungsproblem.
- Bisherige Erklärungsansätze markieren meist einzelne Tokens oder Textabschnitte, die mit einer Antwort korrelieren, geben aber kaum Aufschluss darüber, wo das Modell ent…
- Mit dem neuen Ansatz Directional Reasoning Trajectory Change (DRTC) wird ein prozess‑kausales Rahmenwerk vorgestellt, das aus einer einzigen On‑Policy‑Ausführung kritisc…
Die Frage, wie Sprachmodelle lange, komplexe Argumentationsketten aufbauen, bleibt ein zentrales Forschungsproblem. Bisherige Erklärungsansätze markieren meist einzelne Tokens oder Textabschnitte, die mit einer Antwort korrelieren, geben aber kaum Aufschluss darüber, wo das Modell entscheidende Richtungswechsel vollzieht, welche frühere Kontexte diese Wechsel auslösen und ob die hervorgehobenen Texte tatsächlich den Denkprozess steuern.
Mit dem neuen Ansatz Directional Reasoning Trajectory Change (DRTC) wird ein prozess‑kausales Rahmenwerk vorgestellt, das aus einer einzigen On‑Policy‑Ausführung kritische Pivot‑Punkte erkennt. Dabei werden Unsicherheits‑ und Verteilungs‑Shift‑Signale genutzt, um Entscheidungspunkte zu identifizieren. Anschließend werden gezielte Interventionen auf der Empfängerseite durchgeführt, die den Informationsfluss aus ausgewählten früheren Textabschnitten blockieren, ohne die bereits realisierte Ausführung neu zu sampeln.
DRTC bewertet, ob jede Intervention die Richtung der Log‑Wahrscheinlichkeits‑Trajektorie im Vergleich zur ursprünglichen Ausführung verändert. Daraus entsteht ein signierter Attributionswert pro Textabschnitt. Zusätzlich werden Kurvenwinkel‑Veränderungen der rohen Logits berechnet und als „Kurvaturesignaturen“ zusammengefasst, um die gemeinsame Geometrie von Intervention und Reaktion zu beschreiben.
Empirische Tests zeigen, dass die Richtungseinflüsse stark auf wenige kritische Abschnitte konzentriert sind: bei vier verschiedenen Rechenmodellen liegt der Gini‑Index zwischen 0,50 und 0,58, während die Top‑5‑Prozent‑Masse zwischen 0,23 und 0,28 liegt. Lernbasierte Pivot‑Spannen erzeugen stärkere Interventionen als zufällige Abschnitte. In einer Skalierungsstudie mit 500 MATH‑Aufgaben des Modells R1‑Distill‑Qwen‑1.5B übertrafen die lernenden Spannen zufällige Baselines deutlich.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.