AgentCPM-Explore: 4B-Agent erreicht SOTA bei Edge-Scale-Exploration
Ein neues Forschungsergebnis zeigt, dass ein 4‑Billionen‑Parameter‑Agent namens AgentCPM‑Explore die Grenzen von Edge‑Scale‑Modellen sprengt und sogar größere Modelle übertrifft. Die Studie, veröffentlicht auf arXiv, untersucht erstmals systematisch die Leistungsfähigkeit von Modellen in diesem Größenbereich.
Die Autoren identifizieren drei Hauptengpässe, die die Leistung von Edge‑Scale‑Modellen einschränken: katastrophales Vergessen beim Supervised Fine‑Tuning, Empfindlichkeit gegenüber Rauschsignalen in der Belohnungsfunktion des Reinforcement Learning und ein Rückgang der Rechenleistung durch redundante Informationen in langen Kontexten.
Um diese Probleme zu lösen, präsentiert AgentCPM‑Explore einen kompakteren 4B-Agent mit hoher Wissensdichte und ausgeprägter Erkundungsfähigkeit. Das Modell nutzt einen ganzheitlichen Trainingsrahmen, der Parameter‑Fusion, Rauschunterdrückung der Belohnungszeichen und Kontextverfeinerung kombiniert.
Die Ergebnisse sind beeindruckend: AgentCPM‑Explore erreicht den aktuellen Stand der Technik unter 4B‑Modellen, übertrifft oder erreicht die Leistungen von 8B‑Modellen auf vier Benchmark‑Tests und übertrifft sogar größere Modelle wie Claude‑4.5‑Sonnet oder DeepSeek‑v3.2 in fünf Benchmarks. Besonders hervorzuheben ist die 97,09 % Genauigkeit bei GAIA‑Textaufgaben unter pass@64.
Diese Befunde legen nahe, dass das eigentliche Hindernis für Edge‑Scale‑Modelle nicht ihre inhärente Kapazität, sondern ihre Inferenzstabilität ist. AgentCPM‑Explore demonstriert, dass mit einem gezielten Trainingsansatz die Leistungsgrenzen kleinerer Modelle signifikant erweitert werden können.