DLLMQuant: Quantisierung von Diffusions-basierten Sprachmodellen neu definiert
Die neueste Veröffentlichung auf arXiv (2508.14090v1) präsentiert DLLMQuant, ein Post‑Training‑Quantisierungs‑Framework, das speziell für Diffusion‑basierte Large Language Models (DLLMs) entwickelt wurde. DLLMs haben sich als vielversprechende Alternative zu autoregressiven Modellen für die Textgenerierung etabliert, doch ihre enorme Modellgröße und der damit verbundene Rechenaufwand haben die breite Anwendung bislang behindert.