FairGrad verbessert Fairness und Leistung im Federated Learning
Federated Learning (FL) ermöglicht datenschutzfreundliches Training über verteilte Quellen, doch unterschiedliche Datenverteilungen führen häufig zu Ungleichheiten bei den einzelnen Clients. In einer neuen Studie von arXiv:2508.12042v1 wird dieses Problem aus der Perspektive der „performance equitable fairness“ – also der Minimierung von Leistungsunterschieden – untersucht.
Die Autoren konzentrieren sich ausschließlich auf Fairness‑Methoden, die die Verluste der Clients explizit regulieren. Sie analysieren bestehende Ansätze und führen zwei neue Varianten eines Gradient‑Variance‑Regularizers ein, die sie FairGrad (approximate) und FairGrad* (exact) nennen. Theoretisch erklären sie die Zusammenhänge zwischen den Verfahren und zeigen experimentell, dass beide Varianten die Fairness deutlich steigern und gleichzeitig die Gesamtleistung des globalen Modells verbessern, insbesondere in heterogenen Datenszenarien.
Damit liefert die Arbeit einen wichtigen Beitrag zur Optimierung von Federated Learning in realen, ungleich verteilten Umgebungen und eröffnet neue Perspektiven für die Entwicklung von fairen, leistungsstarken verteilten Lernsystemen.