QMC: Effiziente Edge-Inference für kleine Sprachmodelle mit Outlier‑Quantisierung
Die Ausführung kleiner Sprachmodelle (SLMs) auf Edge‑Geräten ist für Echtzeit‑KI und Datenschutz entscheidend, stößt jedoch an Grenzen bei Speicher, Latenz und Energieverbrauch. Klassische Quantisierung verkleinert Mode…
- Die Ausführung kleiner Sprachmodelle (SLMs) auf Edge‑Geräten ist für Echtzeit‑KI und Datenschutz entscheidend, stößt jedoch an Grenzen bei Speicher, Latenz und Energieve…
- Klassische Quantisierung verkleinert Modelle, leidet aber unter Geräusch‑Einflüssen in neuartigen nichtflüchtigen Speichern.
- Der aktuelle Speicher‑Stack – SRAM für schnellen Zugriff, DRAM für statische Gewichte und dynamische KV‑Caches sowie Flash für Initialisierung – verursacht Engpässe.
Die Ausführung kleiner Sprachmodelle (SLMs) auf Edge‑Geräten ist für Echtzeit‑KI und Datenschutz entscheidend, stößt jedoch an Grenzen bei Speicher, Latenz und Energieverbrauch. Klassische Quantisierung verkleinert Modelle, leidet aber unter Geräusch‑Einflüssen in neuartigen nichtflüchtigen Speichern.
Der aktuelle Speicher‑Stack – SRAM für schnellen Zugriff, DRAM für statische Gewichte und dynamische KV‑Caches sowie Flash für Initialisierung – verursacht Engpässe. SRAM bietet geringe Dichte, DRAM führt zu Bandbreitenkonkurrenz, während Flash während der Inferenz kaum genutzt wird. Diese Einschränkungen fordern eine maßgeschneiderte, hybride Speicherarchitektur.
QMC (Outlier‑aware Quantization with Memory Co‑design) löst das Problem ohne Retraining. Es trennt Gewichte in „Inlier“ und „Outlier“, speichert die Inlier in kompakter, mehrstufiger ReRAM‑Struktur und bewahrt die kritischen Outlier in hochpräziser, on‑chip MRAM. Dadurch wird die Geräusch‑Einwirkung reduziert und die Modellleistung erhalten.
Auf Sprachmodellierungs‑ und Reasoning‑Benchmarks übertrifft QMC aktuelle Quantisierungsmethoden. In realen Edge‑Umgebungen reduziert es den Speicherbedarf um 6,3‑7,3‑fach, die externen Datenübertragungen um 7,6‑fach und den Energieverbrauch um 11,7‑fach, während es gleichzeitig die Modellkompression verbessert.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.