Opportunistic Expert Activation: Batch-Aware Expert Routing for Faster Decode Without Retraining
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
MoE-LLM-Kompression durch Routing-Frequenz und Informationsdichte
arXiv – cs.LG
•
Dispersion Loss reduziert Embedding-Condensation und verbessert kleine Sprachmodelle
arXiv – cs.LG
•
Kompression als Routing: Rekonstruktionsfehler Signal für modulare Sprachmodelle
arXiv – cs.LG
•
Go-UT-Bench: neues Dataset für LLM-gestützte Unit-Test-Generierung in Go
arXiv – cs.LG
•
Selbstverbessernde RL: LLMs meistern offene Aufgaben ohne externe Belohnungen
arXiv – cs.AI
•
PuzzleMoE: Kompression von MoE-Modellen um 50 % ohne Qualitätsverlust