Lookahead Unmasking verbessert Genauigkeit bei Diffusions-Sprachmodellen
Maskierte Diffusionsmodelle erzeugen Text, indem sie Token nacheinander aufdecken. Dabei ist die Reihenfolge, in der die Token freigelegt werden, entscheidend für die Qualität der Ausgabe. Traditionelle Heuristiken, wie die auf Konfidenz basierende Stichprobe, optimieren lediglich lokal, nutzen zusätzliche Rechenzeit nicht aus und lassen Fehler frühzeitig in der Decodierung weiterlaufen.
Die neue Methode Lookahead Unmasking (LookUM) wandelt das Sampling in die Auswahl von Pfaden über alle möglichen Aufdeckungsreihenfolgen um – ohne einen externen Belohnungsmechanismus. Ein Pfadgenerator zieht Vorschläge aus Pools von Aufdeckungssets, während ein Verifikator die Unsicherheit der vorgeschlagenen Pfade berechnet und mittels Importance Sampling die endgültigen Pfade auswählt.
Experimentell zeigt sich, dass fehlerhafte Aufdeckungen die Unsicherheit auf Sequenzebene deutlich erhöhen. LookUM nutzt diese Information, um fehleranfällige Pfade zu vermeiden. Auf sechs unterschiedlichen Benchmarks – darunter Mathematik, Planung und Programmieren – liefert die Methode konsequente Leistungssteigerungen.
Mit nur zwei bis drei Pfaden erreicht LookUM die Spitzenleistung, was die Effizienz der Pfadwahl unterstreicht. Besonders bemerkenswert sind die Verbesserungen bei LLaDA und dem nachtrainierten LLaDA 1.5: Die Basisversion von LLaDA mit LookUM erreicht die Leistung von RL-optimiertem LLaDA 1.5, während LookUM LLaDA 1.5 weiter verbessert. Dies beweist, dass Unsicherheitsbasierte Verifikation orthogonale Vorteile zu Reinforcement‑Learning bietet und die Vielseitigkeit der Methode hervorhebt.