Cerebras präsentiert MiniMax-M2-REAP-162B-A10B – Modell für Coding-Agenten
Cerebras hat gerade das neue MiniMax-M2-REAP-162B-A10B vorgestellt, ein kompakter, sparsamer Mixture-of-Experts (SMoE) Causal Language Model, das auf dem bereits leistungsstarken MiniMax-M2 basiert. Durch die Anwendung der innovativen Router weighted Expert Activation Pruning (REAP)-Methode werden unnötige Experten gezielt entfernt, ohne die Leistungsfähigkeit des Modells zu beeinträchtigen.
Das Ergebnis ist ein Modell, das die gleiche Verhaltensweise wie das ursprüngliche 230‑Billionen‑Parameter‑Modell mit 10 Billionen aktiven Parametern beibehält, jedoch deutlich weniger Speicher benötigt. Diese Speicheroptimierung macht MiniMax-M2-REAP-162B-A10B besonders attraktiv für Einsatzszenarien, bei denen lange Kontextfenster und hohe Effizienz gefragt sind – etwa bei Coding‑Agenten und Tool‑Integration.
Mit der neuen Version können Entwickler nun leistungsfähige Sprachmodelle in produktionsnahen Umgebungen einsetzen, ohne dabei auf die Qualität und Vielseitigkeit des MiniMax-M2 zurückgreifen zu müssen. Cerebras setzt damit einen weiteren Meilenstein in der Entwicklung von skalierbaren, ressourcenschonenden KI‑Lösungen.