Negative Embeddings statt Prompts: Effektiver Schutz für Text‑zu‑Bild‑Modelle
Eine neue Studie auf arXiv (2511.04834v1) zeigt, dass die bisher beliebte Methode der prompt‑basierten Sicherheitsanleitung bei untrainierten Text‑zu‑Bild‑Diffusionsmodellen kaum wirksam ist. Die Autoren untersuchen die beiden Hauptstrategien zur Vermeidung schädlicher Inhalte – das Fein‑Tuning, um gefährliche Konzepte zu „unlernen“, und die trainingsfreie Nutzung negativer Prompts – und stellen fest, dass deren Kombination häufig nur geringe Verbesserungen oder sogar Verschlechterungen der Abwehrleistung bewirkt.