PuzzleMoE: Kompression von MoE-Modellen um 50 % ohne Qualitätsverlust
Die neueste Veröffentlichung von PuzzleMoE zeigt, wie Mixture-of-Experts‑Modelle (MoE) ohne Trainingsaufwand um bis zu 50 % komprimiert werden können, ohne dabei die Genauigkeit zu beeinträchtigen. MoE‑Modelle sind dafü…