SDFLoRA: Neue Methode für federated Fine‑Tuning mit heterogenen Clients
Federated Learning (FL) ermöglicht es, große Sprachmodelle ohne Datenübertragung zu verfeinern und so die Privatsphäre der Nutzer zu schützen. Durch Parameter‑effiziente Techniken wie LoRA werden dabei Kommunikations- und Speicheraufwand drastisch reduziert.
In der Praxis stoßen FL‑Deployments jedoch häufig auf ein Problem: die Rank‑Heterogenität. Unterschiedliche Clients nutzen unterschiedliche Low‑Rank‑Konfigurationen, wodurch die direkte Aggregation von LoRA‑Updates verzerrt und instabil wird. Bestehende Ansätze zwingen die Clients zu einheitlichen Ranks oder zwingen die Updates in einen gemeinsamen Unterraum, was die individuelle Semantik einschränkt, die Personalisierung verringert und die lokale Privatsphäre schwächt.
Die neue Methode SDFLoRA (Selective Dual‑Module Federated LoRA) löst dieses Problem, indem sie jeden Client‑Adapter in ein globales und ein lokales Modul aufteilt. Das globale Modul erfasst übertragbares Wissen und wird selektiv ausgerichtet und aggregiert, während die lokalen Module privat bleiben. Für den Datenschutz wird Differential‑Privacy‑Rauschen ausschließlich in das globale Modul eingebracht, sodass die lokalen Anpassungen geschützt bleiben.
Experimentelle Tests auf den GLUE‑Benchmarks zeigen, dass SDFLoRA die führenden Federated‑LoRA‑Baselines übertrifft und gleichzeitig ein deutlich besseres Verhältnis zwischen Nutzen und Privatsphäre erzielt. Diese Ergebnisse deuten darauf hin, dass SDFLoRA ein vielversprechender Ansatz für die sichere und effiziente Feinabstimmung großer Sprachmodelle in heterogenen, verteilten Umgebungen ist.