Forschung arXiv – cs.LG

AXELRAM: Quantisierung ohne Dequantisierung – Attention-Score-Berechnung

AXELRAM bringt einen echten Durchbruch in der Berechnung von Attention‑Scores: Statt die KV‑Cache‑Indices zu dequantisieren, werden die Scores direkt aus quantisierten Daten berechnet. Das spart Rechenzeit, Speicher und…

≈1 Min. Lesezeit Originalquelle
Visuelle Illustration fuer KI-Kontext
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • AXELRAM bringt einen echten Durchbruch in der Berechnung von Attention‑Scores: Statt die KV‑Cache‑Indices zu dequantisieren, werden die Scores direkt aus quantisierten D…
  • Der Schlüssel liegt in einem design‑time festgelegten Codebuch.
  • Durch eine orthogonale Transform‑Quantisierung wird die Verteilung jeder Koordinate auf N(0,1/d) konzentriert.

AXELRAM bringt einen echten Durchbruch in der Berechnung von Attention‑Scores: Statt die KV‑Cache‑Indices zu dequantisieren, werden die Scores direkt aus quantisierten Daten berechnet. Das spart Rechenzeit, Speicher und Energie.

Der Schlüssel liegt in einem design‑time festgelegten Codebuch. Durch eine orthogonale Transform‑Quantisierung wird die Verteilung jeder Koordinate auf N(0,1/d) konzentriert. Dadurch hängt der optimale Quantizer ausschließlich von der Dimension d und der Bit‑Breite b ab – unabhängig von den eigentlichen Eingabedaten.

Die Architektur nutzt einen asymmetrischen Pfad: Beim Schreiben wird transformiert, beim Lesen erfolgt ein Tabellen‑Lookup ohne Rücktransformation. Diese Optimierung reduziert die Anzahl der Multiplikationen pro Anfrage um beeindruckende 102,4‑Fach.

Bei einer umfangreichen Multi‑Seed‑Evaluierung (10 Seeds × 3 Modelle) zeigte sich, dass die Sign‑Pattern‑Sensitivität bei manchen Modellen wie Qwen2.5‑3B zu katastrophalen PPL‑Spitzen (Δ > 50) führt, während Modelle wie LLaMA‑3.1‑8B stabil bleiben. Das Problem ist eine Erweiterung der Rotation‑Varianz, die bei SpinQuant bei der Gewichtquantisierung beobachtet wurde, jedoch im KV‑Cache‑Bereich stärker ausgeprägt ist. Die Ursache liegt in der Schicht‑weise Norm‑Heterogenität. AXELRAM löst das mit einer gradients‑freien Sign‑Pattern‑Auswahl (200 Kandidaten, 8 Kalibrierungs‑Samples, einmalig), die die Spitzen eliminiert und keinerlei zusätzlichen Hardware‑Kosten verursacht.

Alle Quellcodes sind frei verfügbar unter https://github.com/Axelidea/AXELRAM.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

AXELRAM
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Quantisierung
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Codebuch
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen