Schnellere Konvergenz bei föderierten Variationsungleichungen
In einer neuen Studie wird die federated Optimierung für stochastische Variationsungleichungen (VIs) auf ein neues Level gehoben. Trotz bedeutender Fortschritte bestehen bislang erhebliche Lücken zwischen den vorhandenen Konvergenzraten und den besten bekannten Grenzen für federated convex optimization. Die Autoren schließen diese Lücke, indem sie eine Reihe verbesserter Konvergenzraten nachweisen.
Zunächst zeigen sie, dass der klassische Local Extra SGD-Algorithmus für allgemeine, glatte und monotone VIs unter einer verfeinerten Analyse strengere Garantien liefert. Anschließend identifizieren sie eine inhärente Schwäche dieses Ansatzes: ein übermäßiger Client‑Drift, der die Effizienz einschränkt.
Ausgehend von dieser Erkenntnis stellen die Forscher den neuen Local Inexact Proximal Point Algorithm with Extra Step (LIPPAX) vor. Dieser Ansatz reduziert den Client‑Drift signifikant und erzielt verbesserte Konvergenz in verschiedenen Szenarien, darunter begrenzte Hessian‑Normen, begrenzte Operatoren und niedrige Varianz.
Schließlich erweitern die Autoren ihre Ergebnisse auf federated composite Variationsungleichungen und demonstrieren dort ebenfalls überlegene Konvergenzgarantien. Die Arbeit markiert einen wichtigen Fortschritt in der Theorie der federated Optimierung und eröffnet neue Möglichkeiten für effiziente, verteilte Lernsysteme.