Hybrid Split & Federated Learning beschleunigt drahtlose Modelle

arXiv – cs.LG Original ≈2 Min. Lesezeit
Anzeige

In einer neuen Veröffentlichung auf arXiv wird ein innovatives Verfahren vorgestellt, das die Geschwindigkeit und Genauigkeit von maschinellen Lernprozessen in drahtlosen Netzwerken deutlich steigert. Das Konzept kombiniert Federated Learning (FL) und Split Learning (SL) zu einem Hybridmodell, das die jeweiligen Stärken beider Ansätze nutzt.

Federated Learning ermöglicht es mobilen Geräten, Modelle parallel zu trainieren, ohne ihre Rohdaten zu teilen. Dadurch entstehen geringe Latenzzeiten, jedoch kann die Konvergenz zu einer weniger genauen Lösung führen. Split Learning dagegen teilt das Modell in Schichten auf und trainiert diese sequentiell, was höhere Genauigkeit liefert, jedoch mit einem erhöhten Kommunikationsaufwand verbunden ist.

Das hybride Verfahren erlaubt es, einzelne Geräte im FL‑Modus und andere im SL‑Modus arbeiten zu lassen. Die Autoren untersuchen, wie die Auswahl des Lernmodus, die Batchgröße und die Ressourcenverteilung zusammenwirken, um die Gesamtlatenz zu minimieren. Durch eine detaillierte Konvergenzanalyse wird das Zusammenspiel dieser Parameter aufgezeigt.

Zur Optimierung wird ein zweistufiger Ansatz entwickelt: Zunächst wird ein Block‑Koordinaten‑Abstieg für ein relaxiertes Problem eingesetzt, um eine lokal optimale Lösung zu finden. Anschließend wird ein Rundungsalgorithmus verwendet, um ganzzahlige Batchgrößen mit nahezu optimaler Leistung zu erhalten. Experimentelle Ergebnisse zeigen, dass das Verfahren die Zeit bis zum Erreichen der Zielgenauigkeit im Vergleich zu bestehenden Methoden deutlich reduziert.

Diese Arbeit liefert einen wichtigen Beitrag zur effizienten Nutzung von Ressourcen in verteilten Lernumgebungen und eröffnet neue Möglichkeiten für schnelle, genaue Modelle in mobilen und IoT‑Netzwerken.

Ähnliche Artikel