RefProtoFL: Kommunikationssparendes Federated Learning mit Referenzprototypen
Federated Learning ermöglicht es, Modelle gemeinsam zu trainieren, ohne dass rohe Daten ausgetauscht werden. In ressourcenbeschränkten Edge‑Umgebungen bleibt die Kommunikation jedoch ein Engpass, besonders wenn die Datenverteilungen der Clients stark variieren.
Mit RefProtoFL wird dieses Problem angegangen, indem das Modell in einen privaten Backbone und einen schlanken, gemeinsam genutzten Adapter zerlegt wird. Nur die Adapter‑Parameter werden zwischen den Clients und dem Server ausgetauscht, wodurch die Kommunikationslast drastisch reduziert wird.
Zur weiteren Effizienzsteigerung nutzt RefProtoFL Adaptive Probabilistic Update Dropping (APUD). Dabei werden nur die bedeutendsten Adapter‑Updates – basierend auf ihrer Magnitude – über Top‑K‑Sparsifizierung übertragen, sodass die Uplink‑Kosten noch weiter gesenkt werden.
Ein weiteres Schlüsselelement ist die External‑Referenced Prototype Alignment (ERPA). Durch ein kleines, öffentliches Datenset erstellt der Server externe Referenzprototypen, die als semantische Anker dienen. Clients passen ihre lokalen Repräsentationen an diese Prototypen an, wodurch die Konsistenz über heterogene Clients hinweg verbessert wird. Für Klassen, die im öffentlichen Datensatz nicht vertreten sind, erfolgt die Ausrichtung über serveraggregierte globale Referenzen.
Umfangreiche Experimente auf Standard‑Benchmarks zeigen, dass RefProtoFL die Klassifikationsleistung deutlich steigert, während gleichzeitig die Kommunikationskosten minimiert werden. Das Verfahren bietet damit einen vielversprechenden Ansatz für ressourcenarme, verteilte Lernumgebungen.