Neuer Ansatz: CFG-EC verbessert Fehlerkorrektur bei Classifier-Free Guidance

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die Methode Classifier-Free Guidance (CFG) hat sich als Standard für die gleichzeitige Verbesserung der Prompt‑Treue und der Bildqualität in bedingten Generativmodellen etabliert. Dabei wird während des Trainings stochastisch zwischen konditionalen und neutralen Prompt‑Varianten gewechselt, um sowohl bedingte als auch unbedingte Generationen zu ermöglichen. Beim Sampling hingegen erzeugt CFG gleichzeitig sowohl neutrale als auch konditionale Ausgaben, was zu inkonsistenten Rauschschätzungen führt.

Um dieses Problem zu beheben, wurde CFG‑EC entwickelt – ein vielseitiges Korrekturschema, das sich auf jede CFG‑basierte Methode anwenden lässt. Es verfeinert die unbedingten Rauschvorhersagen, indem es den Fehleranteil des unbedingten Rauschs orthogonal zum konditionalen Fehler ausrichtet. Dadurch wird die Interferenz zwischen den beiden Guidance‑Komponenten verhindert, die obere Schranke des Sampling‑Fehlers reduziert und zuverlässigere Guidance‑Trajektorien für hochqualitative Bildgenerierung geschaffen.

Numerische Experimente zeigen, dass CFG‑EC die unbedingte Komponente effektiver handhabt als die reinen CFG‑ und CFG++‑Varianten. In niedrigen Guidance‑Regimen erzielt es einen deutlichen Leistungszuwachs, während die Prompt‑Alignment‑Raten über alle Tests hinweg konsistent höher bleiben. Dieser Fortschritt eröffnet neue Möglichkeiten für die Entwicklung von generativen Modellen mit verbesserter Prompt‑Treue und Bildqualität.

Ähnliche Artikel