Cerebras präsentiert MiniMax-M2-REAP-162B-A10B – Modell für Coding-Agenten
Cerebras hat gerade das neue MiniMax-M2-REAP-162B-A10B vorgestellt, ein kompakter, sparsamer Mixture-of-Experts (SMoE) Causal Language Model, das auf dem bereits leistungsstarken MiniMax-M2 basiert. Durch die Anwendung der innovativen Router weighted Expert Activation Pruning (REAP)-Methode werden unnötige Experten gezielt entfernt, ohne die Leistungsfähigkeit des Modells zu beeinträchtigen.