Forschung arXiv – cs.LG

OPTIMA: One-Shot-Pruning von LLMs mit Quadratischer Programmierung – neue Genauigkeit

Die neue Methode OPTIMA setzt einen Meilenstein im Pruning nach dem Training großer Sprachmodelle. Durch die Kombination von Maskenauswahl und einer Reihe unabhängiger, zeilenweise Quadratischer Programme (QPs) wird die…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Die neue Methode OPTIMA setzt einen Meilenstein im Pruning nach dem Training großer Sprachmodelle.
  • Durch die Kombination von Maskenauswahl und einer Reihe unabhängiger, zeilenweise Quadratischer Programme (QPs) wird die Gewichtsrekonstruktion optimiert, ohne dass ein…
  • OPTIMA nutzt einen gemeinsamen Hessian pro Schicht, wodurch die QPs in großen Batches parallel auf modernen Beschleunigern gelöst werden können.

Die neue Methode OPTIMA setzt einen Meilenstein im Pruning nach dem Training großer Sprachmodelle. Durch die Kombination von Maskenauswahl und einer Reihe unabhängiger, zeilenweise Quadratischer Programme (QPs) wird die Gewichtsrekonstruktion optimiert, ohne dass ein erneutes Training nötig ist.

OPTIMA nutzt einen gemeinsamen Hessian pro Schicht, wodurch die QPs in großen Batches parallel auf modernen Beschleunigern gelöst werden können. Ein speziell entwickelter, acceleratorfreundlicher Solver sammelt pro Schicht einen Hessian und löst gleichzeitig tausende kleine Quadratische Programme – ein Ansatz, der bisher nur in kleinen Modellen möglich war.

In Tests mit verschiedenen LLM‑Familien und unterschiedlichen Sparsity‑Raten verbessert OPTIMA die Zero-Shot-Leistung um bis zu 3,97 % absolute Genauigkeit. Auf einer NVIDIA H100 kann ein 8‑Billionen‑Parameter‑Transformer in nur 40 Stunden end‑to‑end geprunet werden, wobei der Peak‑Speicherbedarf bei 60 GB liegt. Diese Ergebnisse stellen einen neuen Standard für Genauigkeit‑Effizienz‑Trade‑offs im Einmal‑Pruning dar.

OPTIMA lässt sich nahtlos in bestehende Maskenauswahl‑Tools integrieren und erfordert keine Feinabstimmung. Damit bietet es eine skalierbare, effiziente Lösung für die Reduktion von LLM‑Modellen, die sowohl in Forschung als auch in der Praxis sofort einsetzbar ist.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

OPTIMA
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Pruning
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Maskenauswahl
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen