TAFAP: Trajektorienbasierte Datenschutz‑Methode für Diffusionsmodelle
Die rasante Weiterentwicklung von Diffusionsmodellen hat das Feintuning von Text‑zu‑Bild‑Systemen für individuelle Anwendungen erleichtert – gleichzeitig entstehen jedoch ernsthafte Bedenken hinsichtlich unbefugter Datennutzung und Datenschutzverletzungen.
Aktuelle Schutzansätze reduzieren lediglich die Bildqualität und bieten keine stabile Kontrolle über die Modellveränderungen. Snapshot‑basierte Targeted Data Protection (TDP)‑Methoden verlieren mit fortschreitendem Training an Wirksamkeit, weil sie die Lerndynamik nicht vollständig berücksichtigen.
Mit TAFAP (Trajectory Alignment via Fine‑tuning with Adversarial Perturbations) wird erstmals die gesamte Trainingstrajektorie aktiv gesteuert. Inspiriert von Dataset‑Distillation nutzt die Methode Trajektorien‑Matching, um beständige, überprüfbare Transformationen während des gesamten Feintunings zu erzwingen.
Umfangreiche Experimente zeigen, dass TAFAP die erste erfolgreiche gezielte Transformation in Diffusionsmodellen ermöglicht und gleichzeitig Identität sowie visuelle Muster präzise steuert. Im Vergleich zu bisherigen TDP‑Versuchen liefert TAFAP eine deutlich robustere Umleitung auf Zielkonzepte, ohne die Bildqualität zu beeinträchtigen.
Dieses Verfahren eröffnet verifizierbare Sicherheitsmechanismen und legt einen neuen Rahmen für die Kontrolle und Nachverfolgung von Änderungen in den Ausgaben von Diffusionsmodellen fest.