Neue Hierarchische Sparse‑Plus‑Low‑Rank‑Kompression für große Sprachmodelle
Moderne große Sprachmodelle (LLMs) belasten Speicher und Rechenleistung in einem Ausmaß, das eine gezielte Kompression unverzichtbar macht. Mit der neuen Hierarchical Sparse Plus Low‑Rank (HSS)-Methode wird dieses Probl…
- Moderne große Sprachmodelle (LLMs) belasten Speicher und Rechenleistung in einem Ausmaß, das eine gezielte Kompression unverzichtbar macht.
- Mit der neuen Hierarchical Sparse Plus Low‑Rank (HSS)-Methode wird dieses Problem elegant angegangen: Zunächst werden die Gewichte mit den größten Beträgen in eine spärl…
- Anschließend wird der verbleibende dichte Rest mithilfe einer rekursiven, hierarchisch sparsamen Low‑Rank‑Faktorisierung (HSS) weiter reduziert.
Moderne große Sprachmodelle (LLMs) belasten Speicher und Rechenleistung in einem Ausmaß, das eine gezielte Kompression unverzichtbar macht. Mit der neuen Hierarchical Sparse Plus Low‑Rank (HSS)-Methode wird dieses Problem elegant angegangen: Zunächst werden die Gewichte mit den größten Beträgen in eine spärliche Matrix S extrahiert. Anschließend wird der verbleibende dichte Rest mithilfe einer rekursiven, hierarchisch sparsamen Low‑Rank‑Faktorisierung (HSS) weiter reduziert.
Ein innovativer Ansatz zur Rangreduktion kombiniert mit einer Reverse‑Cuthill‑McKee‑Permutation (RCM) sorgt dafür, dass die wichtigsten Gewichte entlang der Diagonalen ausgerichtet werden. Dadurch wird die Kompressibilität der Off‑Diagonal‑Elemente maximiert, weil diese nur einmal berührt werden. Das Ergebnis ist eine hardwarefreundliche Struktur: Der Matrix‑Vektor‑Multiplikationsschritt lässt sich auf eine einzige sparse‑Multiplikation und eine Folge von dünnen Matrizenmultiplikationen reduzieren, die sich nahtlos in bestehende Optimierer einfügen lassen.
In praktischen Tests mit dem LLaMA‑7B-Modell zeigte sich, dass bereits die Selbst‑Aufmerksamkeit‑Projektionen – 1,6 Mio. Parameter von insgesamt 7 Mio. – ausreichen, um erhebliche Speicherersparnisse zu erzielen, ohne die Leistungsfähigkeit zu beeinträchtigen. Bei einem Sparsity‑Budget von 30 % und einem äußeren Rang von 512 erreichte die Variante sHSS‑RCM eine Perplexität von 1,64, was sowohl dense‑Baselines als auch klassische sparse‑plus‑SVD‑Varianten übertrifft, und gleichzeitig die Speicheranforderungen deutlich senkte.
Welche Linse du auf diese Meldung legen solltest
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.