Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Mixture-of-Experts”
Forschung

<h1>Layer‑Adaptive Expert Pruning steigert Effizienz beim Vortraining von MoE‑LLMs</h1> <p>Mixture‑of‑Experts‑Modelle (MoE) sind bekannt dafür, mit einer geringeren Anzahl aktiver Parameter eine überlegene Genauigkeit zu liefern. Ihr Vortraining bleibt jedoch ein erheblicher Rechenengpass, weil viele Experten kaum genutzt werden und die Trainings­effizienz begrenzt ist.</p> <p>Die neue Methode <strong>Layer‑Adaptive Expert Pruning (LAEP)</strong> richtet sich gezielt an diese Schwachstelle. Während des Vort

arXiv – cs.LG