Neues Beobachtungs-Framework prüft Label-Privatsphäre ohne Datensatzänderung
In der Welt des maschinellen Lernens ist die Überprüfung von Differential Privacy (DP) entscheidend, um die Sicherheit von Modellen zu gewährleisten. Traditionelle Auditing-Methoden erfordern jedoch oft aufwändige Änderungen am Trainingsdatensatz, etwa das Einfügen von Out-of-Distribution-Canaries oder das Entfernen von Proben. Diese Vorgehensweise ist ressourcenintensiv und erfordert erheblichen Engineering-Aufwand.