Dynamische Schwellenwerte beschleunigen Diffusions‑Sprachmodelle
Maskierte Diffusions‑Sprachmodelle (MDLMs) kommen immer näher an die Leistung ihrer autoregressiven Gegenstücke, doch sie nutzen meist feste Decodierungsschritte und sequentielles Unmaskieren. Um die Geschwindigkeit zu erhöhen, hat Fast‑dLLM einen statischen globalen Vertrauensschwellenwert eingeführt, der jedoch starke Schwankungen in Block- und Schritt‑Weise aufweist und innerhalb eines Datensatzes nahezu identische Vertrauenskurven für verschiedene Eingaben erzeugt.