Forschung arXiv – cs.LG

Muon²: Schnellere Optimierung großer Modelle durch adaptives Preconditioning

In der Welt des maschinellen Lernens hat sich der Optimierer Muon als vielversprechende Lösung für das Pre‑Training großer Basismodelle etabliert. Durch die Ausnutzung der Matrixstruktur neuronaler Netzwerkupdates und d…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In der Welt des maschinellen Lernens hat sich der Optimierer Muon als vielversprechende Lösung für das Pre‑Training großer Basismodelle etabliert.
  • Durch die Ausnutzung der Matrixstruktur neuronaler Netzwerkupdates und die iterative Orthogonalisierung erzielt Muon beeindruckende Fortschritte.
  • Doch die Notwendigkeit mehrerer Newton–Schulz‑Iteration pro Optimierungsschritt führt zu erheblichem Rechen- und Kommunikationsaufwand.

In der Welt des maschinellen Lernens hat sich der Optimierer Muon als vielversprechende Lösung für das Pre‑Training großer Basismodelle etabliert. Durch die Ausnutzung der Matrixstruktur neuronaler Netzwerkupdates und die iterative Orthogonalisierung erzielt Muon beeindruckende Fortschritte. Doch die Notwendigkeit mehrerer Newton–Schulz‑Iteration pro Optimierungsschritt führt zu erheblichem Rechen- und Kommunikationsaufwand.

Mit der Einführung von Muon² wird dieses Problem adressiert: Der neue Ansatz kombiniert Muon mit einer Adam‑ähnlichen adaptiven Second‑Moment‑Preconditioning‑Schicht, die vor der Orthogonalisierung angewendet wird. Dadurch wird die schlecht konditionierte Momentum‑Matrix deutlich stabilisiert, was die Spektralverteilung verbessert und die Polar‑Approximation beschleunigt.

Die Qualität der Orthogonalisierung wird anhand der Richtungsangleichung gemessen. Muon² zeigt bei jedem Polar‑Schritt eine dramatische Verbesserung gegenüber dem ursprünglichen Muon. In umfangreichen Pre‑Training‑Experimenten mit GPT‑ und LLaMA‑Modellen – von 60 M bis 1,3 B Parametern – übertrifft Muon² nicht nur Muon, sondern auch neuere Varianten, während die Anzahl der Newton–Schulz‑Iteration um 40 % reduziert wird.

Zusätzlich wurde Muon²‑F entwickelt, eine speichereffiziente, faktorisierte Variante, die die meisten Vorteile von Muon² beibehält, jedoch mit nahezu vernachlässigbarem Speicheraufwand. Diese Innovationen machen Muon² zu einer attraktiven Option für das Training hochdimensionaler Modelle, indem sie Geschwindigkeit, Effizienz und Ressourcenverbrauch signifikant verbessern.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Muon
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Muon²
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Adam
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen