EMoE: Eigenbasis‑gesteuerte Routenführung für Mixture-of-Experts
Mit dem unaufhörlichen Wachstum von Deep‑Learning‑Modellen steigen die Rechenkosten exponentiell. Mixture‑of‑Experts‑Architekturen (MoE) gelten als vielversprechender Weg, die Effizienz zu steigern, doch sie leiden an z…