Serverseitige Kalibrierung reduziert Bias im Federated Learning
Federated Learning (FL) hat sich als wegweisendes verteiltes Lernparadigma etabliert, bei dem mehrere Clients gemeinsam ein globales Modell trainieren, ohne ihre Rohdaten zu teilen. Trotz der Vorteile steht FL vor einer entscheidenden Herausforderung: die Gewährleistung von Fairness über unterschiedliche demografische Gruppen hinweg.
Viele bisher vorgeschlagene, fairness‑bewusste Debiasing‑Methoden erfordern Änderungen an den Trainingsprotokollen der Clients oder bieten wenig Flexibilität bei der Aggregation. Diese Einschränkungen limitieren die praktische Anwendbarkeit in heterogenen Umgebungen.
Die neue Methode EquFL löst diese Probleme, indem sie serverseitig arbeitet. Nach Erhalt der Modellupdates der Clients erzeugt der Server ein einziges kalibriertes Update, das anschließend mit den aggregierten Client‑Updates kombiniert wird. Das Ergebnis ist ein angepasstes globales Modell, das systematisch Bias reduziert.
Wissenschaftlich wird gezeigt, dass EquFL konvergiert zu dem optimalen Modell, das durch FedAvg erreicht wird, und gleichzeitig die Fairness‑Verlustfunktion im Verlauf der Trainingsrunden senkt. Empirische Tests bestätigen, dass EquFL die Verzerrung im System signifikant verringert und damit die Effektivität von Federated Learning in realen Szenarien deutlich verbessert.