AIMER: Kalibrierungsfreies MoE‑Pruning ohne Aufgabenabhängigkeit
Die neuesten Mixture‑of‑Experts‑Modelle (MoE) erhöhen die Parameterkapazität, ohne dass die Berechnungskosten pro Token proportional steigen. Dennoch müssen bei der Bereitstellung alle Experten gespeichert werden, was…
- Die neuesten Mixture‑of‑Experts‑Modelle (MoE) erhöhen die Parameterkapazität, ohne dass die Berechnungskosten pro Token proportional steigen.
- Dennoch müssen bei der Bereitstellung alle Experten gespeichert werden, was Speicherbedarf und Service‑Kosten in die Höhe treibt.
- Deshalb gewinnt das Pruning von Experten zunehmend an Bedeutung.
Die neuesten Mixture‑of‑Experts‑Modelle (MoE) erhöhen die Parameterkapazität, ohne dass die Berechnungskosten pro Token proportional steigen. Dennoch müssen bei der Bereitstellung alle Experten gespeichert werden, was Speicherbedarf und Service‑Kosten in die Höhe treibt. Deshalb gewinnt das Pruning von Experten zunehmend an Bedeutung.
Aktuelle, auf Aufgabenunabhängigkeit ausgelegte Pruning‑Methoden beruhen meist auf Kalibrierungssets. Sie schätzen die Wichtigkeit der Experten aus Routen‑ oder Aktivierungsstatistiken, was die Ergebnisse stark von der gewählten Kalibrierungsprobe abhängen lässt und zusätzliche Vorverarbeitungskosten verursacht.
Mit AIMER – dem „Absolute mean over root mean square Importance for Expert Ranking“ – wird dieses Problem elegant gelöst. Der Ansatz ist völlig kalibrierungsfrei und liefert klare Score‑Trennungen innerhalb jeder Schicht sowie eine eindeutige Experten‑Stratifikation.
In umfangreichen Tests mit 7 B bis 30 B MoE‑Modellen, bei 25 % und 50 % Pruning‑Raten über 16 Benchmarks, übertrifft AIMER konsequent die führenden, kalibrierungsbasierten Baselines. Dabei benötigt die Bewertung der Experten lediglich 0,22 bis 1,27 Sekunden.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.