Forschung
PuzzleMoE: Kompression von MoE-Modellen um 50 % ohne Qualitätsverlust
Die neueste Veröffentlichung von PuzzleMoE zeigt, wie Mixture-of-Experts‑Modelle (MoE) ohne Trainingsaufwand um bis zu 50 % komprimiert wer…
arXiv – cs.AI