Forschung
MoE-LLMs: Gefahr unautorisierter Kompression durch gezieltes Pruning
Modulare Mixture-of-Experts-Architekturen werden immer häufiger in großen Sprachmodellen eingesetzt, weil sie Skalierbarkeit und Effizienz…
arXiv – cs.LG