Forschung
MoE-LLM-Kompression durch Routing-Frequenz und Informationsdichte
Die neuesten Fortschritte bei Mixture-of-Experts (MoE) Modellen haben die Leistungsfähigkeit großer Sprachmodelle deutlich gesteigert – doc…
arXiv – cs.LG