Negative Embeddings statt Prompts: Effektiver Schutz für Text‑zu‑Bild‑Modelle
Eine neue Studie auf arXiv (2511.04834v1) zeigt, dass die bisher beliebte Methode der prompt‑basierten Sicherheitsanleitung bei untrainierten Text‑zu‑Bild‑Diffusionsmodellen kaum wirksam ist. Die Autoren untersuchen die beiden Hauptstrategien zur Vermeidung schädlicher Inhalte – das Fein‑Tuning, um gefährliche Konzepte zu „unlernen“, und die trainingsfreie Nutzung negativer Prompts – und stellen fest, dass deren Kombination häufig nur geringe Verbesserungen oder sogar Verschlechterungen der Abwehrleistung bewirkt.
Um dieses Problem zu lösen, schlagen die Forscher einen einfachen, aber wirkungsvollen Ansatz vor: anstelle von expliziten negativen Prompts werden implizite negative Einbettungen erzeugt, die durch Konzeptinversion gewonnen werden. Diese Technik erfordert keine Änderungen an den bestehenden Modellen oder Abläufen und lässt sich problemlos in bestehende Pipelines integrieren.
In umfangreichen Experimenten, die sowohl Nacktheit als auch Gewalt als Testkriterien nutzten, konnte die neue Methode die Erfolgsrate der Abwehr deutlich steigern, ohne die ursprüngliche Bedeutung der Eingabeaufforderungen zu verfälschen. Damit liefert die Arbeit einen vielversprechenden Weg, um die Sicherheit von Text‑zu‑Bild‑Generatoren zu erhöhen, ohne die kreative Flexibilität der Modelle zu beeinträchtigen.