Forschung
LATMiX: Lernbare Affine-Transformationen für die Microskalierung von LLMs
Die Post‑Training‑Quantisierung (PTQ) bleibt ein zentraler Ansatz, um die Speicher‑ und Rechenkosten großer Sprachmodelle drastisch zu senk…
arXiv – cs.LG