Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “ARC‑AGI”
Forschung

<p>Ein neues Verfahren namens Recursive Concept Evolution (RCE) verspricht, die Leistungsfähigkeit großer Sprachmodelle bei komplexen Rechenaufgaben deutlich zu erhöhen.</p> <p>Obwohl moderne LLMs bei vielen Aufgaben brillieren, verlieren sie bei Benchmark-Tests, die tiefes Zusammenspiel von Konzepten erfordern, an Genauigkeit. Dazu zählen ARC‑AGI‑2, GPQA, MATH, BBH und HLE.</p> <p>RCE erlaubt es dem Modell, während der Inferenz seine internen Repräsentationen dynamisch zu verändern, indem es neue, niedrigd

arXiv – cs.AI
Forschung

Tiny Recursive Models zeigen bei ARC-AGI-1 beeindruckende Effizienz <p>Die Tiny Recursive Models (TRM) stellen eine kompakte Alternative zu großen Sprachmodellen dar, um Aufgaben des Abstraction and Reasoning Corpus (ARC) zu lösen. In einer neuen Analyse des ARC‑Prize‑TRM‑Checkpoints auf dem ARC‑AGI‑1‑Datensatz wurden vier zentrale Erkenntnisse gewonnen.</p> <p>Erstens verdeutlicht die Untersuchung, dass Test‑Time‑Augmentation und ein Mehrfach‑Voting‑Ansatz einen erheblichen Anteil am Erfolg ausmachen.

arXiv – cs.LG
Forschung

<p>Modale Darstellungen bestimmen Wahrnehmung und Fehler in ARC-AGI-Systemen</p> <p>ARC‑AGI und seine Nachfolger ARC‑AGI‑2 setzen neue Maßstäbe für die Messung von Generalisierung durch Zusammensetzung auf kleinen, farbquantisierten Rasterfeldern. Durch Wettbewerbe werden Fortschritte bei schwierigen, ausgehenden Aufgaben zu einem sinnvollen Indikator für systematische Generalisierung gemacht.</p> <p>Trotz der Fortschritte fehlt ein klares Verständnis dafür, wie unterschiedliche Darstellungsformen – von kom

arXiv – cs.AI