Federated Learning für Satelliten: Effiziente On-Board-ML im Weltraum

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Mit dem raschen Ausbau von Low‑Earth‑Orbit‑Satelliten zu Hunderte und Tausende von Raumfahrzeugen wird die Notwendigkeit für verteiltes maschinelles Lernen an Bord immer dringlicher. Die begrenzte Downlink‑Bandbreite erfordert, dass die Datenverarbeitung vor Ort stattfindet, sodass Satelliten ihre Modelle gemeinsam trainieren können.

Federated Learning (FL) bietet hierfür ein vielversprechendes Konzept, doch die Anwendung im Weltraum stellt besondere Herausforderungen dar: intermittierende Verbindungen, die Dynamik der Orbitalbewegung und die begrenzten Rechenressourcen an Bord. In der vorliegenden Studie wird das erste systematische Machbarkeits‑Assessment vorgestellt, das gängige FL‑Algorithmen – FedAvg, FedProx und FedBuff – für den Einsatz in Satellitenkonstellationen anpasst.

Das entwickelte „Space‑ification“-Framework transformiert die terrestrischen Verfahren in eine orbital‑bereite Version, die unter den spezifischen Einschränkungen des Weltraums zuverlässig arbeitet. Durch umfangreiche Simulationen über 768 Konstellationsvarianten, die Clustergrößen, Satelliten pro Cluster und Bodenstationen abdecken, konnte gezeigt werden, dass die angepassten FL‑Methoden bis zu 100 Satelliten effizient skalieren und dabei Leistungen erreichen, die nahe an einem zentralisierten Ideal liegen.

Ein besonders bemerkenswerter Befund ist die Reduktion von mehrmonatigen Trainingszyklen auf nur wenige Tage – ein 9‑facher Geschwindigkeitszuwachs dank orbitaler Zeitplanung und lokaler Koordination innerhalb der Satellitencluster. Diese Ergebnisse liefern konkrete Handlungsempfehlungen für zukünftige Missionen und ebnen den Weg für autonomere, resilientere und datengetriebene Weltraumkonstellationen.

Ähnliche Artikel