Audit von Approx. Machine Unlearning: DP-Modelle im Fokus
Forscher haben ein neues Verfahren entwickelt, um die Privatsphäre von Modellen, die mit Differential Privacy (DP) trainiert wurden, nach dem Entfernen bestimmter Daten zu prüfen. Das Ziel ist es, sicherzustellen, dass sowohl die entfernten als auch die verbleibenden Daten den strengen DP‑Standards entsprechen.