Aktivationssensitivität: Das Prinzip für Quantisierung nach Training
In der Welt der großen Sprachmodelle ist die Quantisierung nach dem Training (PTQ) ein entscheidender Schritt, um Modelle effizienter zu machen, ohne ihre Leistung zu verlieren. Bisher beruhen die gängigen PTQ‑Methoden auf unterschiedlichen Heuristiken: Während AWQ sich auf die Größe der Aktivierungen konzentriert, nutzt GPTQ die Kovarianzstruktur der Eingaben, um Quantisierungsfehler zu verteilen. Diese Ansätze wirken zwar stark, bleiben jedoch konzeptionell fragmentiert.