Neue Methode verbessert Federated Domain Generalization mit besserer Privatsphäre

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Ein neues Verfahren zur Federated Domain Generalization (FedDG) verspricht, die Leistung globaler Modelle zu steigern, ohne die Privatsphäre der Clients zu gefährden. Durch die Kombination von „latent space inversion“ und einer gewichtungsbasierten Aggregation werden lokale Modelle nicht nur robuster gegenüber Verteilungsverschiebungen, sondern auch sicherer.

Die Technik der latent space inversion sorgt dafür, dass lokale Modelle domäneninvariant bleiben. Dabei werden die latenten Repräsentationen so transformiert, dass sie weniger auf spezifische Client-Daten zurückgreifen, was die Privatsphäre erhöht. Gleichzeitig bleibt die Modellleistung erhalten, weil die Inversion die wichtigsten Merkmale beibehält.

Um die Gefahr zu minimieren, dass bei nicht-i.i.d. Daten wichtige lokale Anpassungen verloren gehen, führt das Verfahren eine „important weight“ Aggregation ein. Dabei werden Parameter, die einen signifikanten Einfluss auf die Vorhersagen haben, bei der Zusammenführung stärker gewichtet. So bleibt die lokale Expertise erhalten, während das globale Modell weiterhin generalisiert.

In umfangreichen Experimenten übertrifft die neue Methode die aktuellen State‑of‑the‑Art-Ansätze und reduziert gleichzeitig den Kommunikationsaufwand. Das Ergebnis ist ein effizienteres und datenschutzfreundlicheres Federated Learning, das sich besonders für heterogene und sensible Anwendungsbereiche eignet.

Ähnliche Artikel