Adaptive Differential Privacy im Federated Learning: Mehr Stabilität
Federated Learning ermöglicht es verteilten Geräten, gemeinsam Modelle zu trainieren, ohne dass sensible Daten zentralisiert werden. In realen Anwendungen führen jedoch Geräteheterogenität und stark nicht‑identisch verteilte (Non‑IID) Daten zu instabilen und verzerrten Gradienten. Wenn zusätzlich Differential Privacy (DP) eingesetzt wird, verstärken feste Gradient-Clipping‑Regeln und das Einfügen von Gaußschem Rauschen die Gradient‑Störungen, was zu Trainingsschwankungen und Leistungseinbußen führt.