ASFL: Adaptive Aufteilung beschleunigt Federated Learning

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Federated Learning (FL) ermöglicht es mehreren Clients, gemeinsam ein Machine‑Learning‑Modell zu trainieren, ohne ihre Rohdaten preiszugeben. In der Praxis führen jedoch die begrenzten Rechenressourcen der Clients zu langen Trainingszeiten und hohem Energieverbrauch.

Das neue ASFL‑Framework nutzt die Rechenleistung des zentralen Servers, um einen Teil des Modells zu trainieren, und erlaubt eine adaptive Aufteilung des Modells sowie eine dynamische Ressourcenallokation während des Trainings. Durch eine theoretische Analyse der Konvergenzrate wird ein Optimierungsproblem formuliert, das Lernleistung, Verzögerung und Energieverbrauch gleichzeitig berücksichtigt.

Zur Lösung dieses Problems wurde ein Online‑Optimierungs‑erweitertes Block‑Koordinaten‑Abstieg‑Verfahren (OOE‑BCD) entwickelt, das die Entscheidungen iterativ anpasst. In Experimenten zeigte ASFL gegenüber fünf Standardverfahren eine schnellere Konvergenz und reduzierte die Gesamtdelay um bis zu 75 % sowie den Energieverbrauch um bis zu 80 %.

Ähnliche Artikel