Neue „Laws of Reasoning“ bringen Klarheit in KI‑Logik

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Ein neues arXiv‑Veröffentlichung mit der Bezeichnung 2512.17901v1 präsentiert ein einheitliches Rahmenwerk namens „Laws of Reasoning“ (LoRe), das die inneren Denkprozesse großer Sprachmodelle (LRMs) systematisch beschreibt. Das Ziel ist, die bislang oft kontraintuitiven Reaktionsmuster dieser Modelle zu erklären und zu steuern.

LoRe besteht aus zwei Kernprinzipien: dem Compute‑Law, der besagt, dass die Rechenleistung linear zur Komplexität einer Frage skalieren sollte, und dem Accuracy‑Law, der die Genauigkeit in Relation zur Rechenintensität setzt. Da die Komplexität einer Frage schwer zu quantifizieren ist, prüfen die Autoren die Gültigkeit dieser Gesetze anhand von Monotonie und Komposition – zwei leicht messbaren Eigenschaften.

Zur Messung dieser Eigenschaften wurde LoRe‑Bench entwickelt, ein Benchmark, der systematisch die Monotonie und Komposition großer Modelle bewertet. Die Ergebnisse zeigen, dass die meisten Modelle eine akzeptable Monotonie aufweisen, jedoch in der Komposition deutlich schwächer sind.

Um dieses Defizit zu beheben, schlägt die Studie eine gezielte Feinabstimmung vor, die die Komposition des Compute‑Law erzwingt. Umfangreiche Experimente belegen, dass Modelle, die besser mit den Compute‑Laws übereinstimmen, konsequent höhere Leistungen auf verschiedenen Benchmarks erzielen und dabei synergistische Effekte zwischen den Gesetzen und Eigenschaften entfalten.

Weitere Informationen und die zugehörigen Ressourcen finden Sie auf der Projektseite: https://lore-project.github.io/.

Ähnliche Artikel