Gaussian Blur entlarvt: Neue Analyse zeigt bessere Alternativen für Bilddatensicherheit
In der heutigen Welt, in der Bilddaten aus dem Internet häufig persönliche Informationen wie Gesichter oder Nummernschilder enthalten, ist es entscheidend, diese Daten verantwortungsbewusst freizugeben. Gleichzeitig muss die Freigabe die Nützlichkeit für das Training von Modellen erhalten.
Der bisher am weitesten verbreitete Ansatz zur Verdeckung privater Inhalte ist das Gaußsche Weichzeichnen. Unsere Untersuchung zeigt jedoch, dass praktische Implementierungen dieses Verfahrens in niedriger Präzision reversibel genug sind, um die Privatsphäre zu verletzen. Wir haben daher die Datenschutz‑ und Nutzenverhältnisse von drei weiteren Techniken – Pixelisierung, Pixelisierung kombiniert mit Rauschaddition (DP‑Pix) und Zuschneiden – eingehend analysiert.
Die Privatsphäre wurde dabei anhand von Rückwärts- und Diskriminierungsangriffen bewertet, während die Nützlichkeit durch die Qualität der erlernten Repräsentationen gemessen wurde, wenn Modelle mit Bildern trainiert wurden, deren Gesichter verdeckten wurden. Unsere Ergebnisse zeigen, dass das beliebte Gaußsche Weichzeichnen die geringste Privatsphäre bietet, da es in seiner üblichen, niedrigpräzisen Form leicht umkehrbar ist. Im Gegensatz dazu liefern Pixelisierung und DP‑Pix bei angemessener Granularität sowohl einen hohen Datenschutz als auch eine gute Modellleistung für verschiedene Computer‑Vision‑Aufgaben.
Zur Unterstützung der Forschung stellen wir die entwickelten Methoden sowie empfohlene Parameter in einem Softwarepaket namens Privacy Blur zur Verfügung, das Forschern und Praktikern hilft, Bilddaten sicher und gleichzeitig nutzbringend freizugeben.