Privates Zeroth-Order-Optimieren mit öffentlichen Daten: Mehr Effizienz und Privatsphäre
Die Umsetzung von populären, first‑order, differenziell privaten Lernalgorithmen wie DP‑SGD ist oft mit hohen Rechen- und Speicheraufwand verbunden, obwohl es bereits optimierte Implementierungen gibt. Zeroth‑Order‑Methoden versprechen, diesen Overhead zu reduzieren, indem sie Funktionsauswertungen nutzen, um Gradienten zu approximieren – ein Ansatz, der wesentlich einfacher zu privatieren ist.