Universal Reasoning Model erzielt Rekord bei Logikaufgaben

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Ein neues Forschungsdokument, veröffentlicht auf arXiv (2512.14693v1), stellt das Universal Reasoning Model (URM) vor – ein verbessertes Universal Transformer, das bei anspruchsvollen Logikaufgaben wie ARC‑AGI neue Maßstäbe setzt.

Die Autoren untersuchten systematisch verschiedene Varianten von Universal Transformers (UTs) und fanden heraus, dass die Leistungssteigerungen bei ARC‑AGI vor allem auf die rekurrente Induktionsvorteilstruktur und die starken nichtlinearen Komponenten des Transformers zurückzuführen sind, nicht jedoch auf komplexe architektonische Neuerungen.

Auf dieser Erkenntnis basierend erweitert das URM den UT um kurze Faltungsoperationen und abgeschnittene Rückpropagation. Diese Kombination führt zu einer signifikanten Verbesserung der Problemlösungsfähigkeit: Das Modell erreicht einen Pass‑Rate von 53,8 % bei ARC‑AGI 1 und 16,0 % bei ARC‑AGI 2 – damit die bisher beste Leistung in beiden Versionen.

Der Quellcode des URM ist frei verfügbar unter https://github.com/zitian-gao/URM und ermöglicht Forschern sowie Entwicklern, die Methode weiter zu erforschen und anzuwenden.

Ähnliche Artikel