Neues Verfahren für Differential Private Optimierung bei Tsybakov-Rauschen
In einer aktuellen Veröffentlichung auf arXiv wird ein neues Verfahren für stochastische konvexe Optimierung im Differential-Privacy-Modell vorgestellt. Das Besondere: Die Autoren berücksichtigen die Tsybakov Noise Condition (TNC) mit einem Parameter θ > 1, wodurch die Lipschitz-Konstante des Verlustes beliebig groß oder sogar unbeschränkt sein kann. Stattdessen wird lediglich das ℓ₂‑Gradienten‑Signal mit einem beschränkten k‑ten Moment (k ≥ 2) vorausgesetzt.