SAGE-32B: 32 Milliarden Parameter für agentisches Denken

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Ein neuer Meilenstein in der KI-Forschung: SAGE-32B ist ein 32‑Billionen‑Parameter‑Modell, das speziell für agentisches Denken und langfristige Planungsaufgaben entwickelt wurde. Im Gegensatz zu Chat‑Modellen, die vor allem auf flüssige Konversation abzielen, arbeitet SAGE-32B in einem Agenten‑Loop, der Aufgaben zerlegt, Werkzeuge einsetzt und Fehlerbehebung ermöglicht.

Das Modell basiert auf dem vortrainierten Qwen2.5‑32B und wird durch einen zweistufigen Iterative‑Distillation‑Prozess feinjustiert. Dieser Ansatz nutzt streng geprüfte Feedback‑Schleifen, um die Rechenleistung bei komplexen Denkaufgaben zu steigern. Zusätzlich führt SAGE-32B eine inverse Reasoning‑Methode ein, bei der ein Meta‑Kognition‑Kopf potenzielle Fehler im Planungsprozess vor der Ausführung vorhersagt.

In Agentic‑Reasoning‑Benchmarks wie MMLU‑Pro, AgentBench und MATH‑500 erzielt SAGE-32B höhere Erfolgsraten bei Szenarien mit mehreren Werkzeugen als vergleichbare Modelle gleicher Größe, bleibt dabei aber konkurrenzfähig bei Standard‑Reasoning‑Tests. Die Modellgewichte sind öffentlich zugänglich unter https://huggingface.co/sagea-ai/sage-reasoning-32b.

Ähnliche Artikel