CompressARC: 76‑Parameter‑Modell löst ARC‑AGI ohne Pre‑Training

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Eine neue Veröffentlichung auf arXiv präsentiert CompressARC, ein 76‑Kern-Modell, das ohne jegliches Pre‑Training in der Lage ist, 20 % der Aufgaben des ARC‑AGI‑1‑Benchmarks zu lösen. Der Ansatz basiert auf der Minimierung der Beschreibungs­länge (MDL) des Ziel‑Puzzles während der Inferenz, wodurch das Modell außergewöhnliche Generalisierungsfähigkeiten erlangt.

Im Gegensatz zu herkömmlichen großen Sprachmodellen, die auf umfangreichen Datensätzen vortrainiert werden, trainiert CompressARC ausschließlich auf dem einzelnen Ziel‑Puzzle, wobei die endgültige Lösung entfernt wird. Das Modell nutzt keine der vorgegebenen Trainingsdaten des ARC‑AGI‑Sets und arbeitet unter extrem begrenzten Datenbedingungen.

Trotz dieser Einschränkungen löst CompressARC eine vielfältige Auswahl kreativer Puzzles, was darauf hindeutet, dass MDL als praktikable Alternative zum klassischen Pre‑Training zur Erzeugung intelligenter Systeme dienen kann. Die Ergebnisse legen nahe, dass die Beschreibungs­längen­optimierung ein vielversprechender Ansatz für die Entwicklung von KI‑Modellen mit begrenzten Ressourcen ist.

Ähnliche Artikel