Federated Learning schützt IoT vor Angriffen trotz heterogener Daten

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Mit der rasanten Verbreitung von Endgeräten und dem damit einhergehenden Datenanstieg stehen herkömmliche Machine‑Learning‑Modelle vor enormen Herausforderungen. Besonders in ressourcenbeschränkten und sicherheitskritischen Umgebungen, wie sie im Internet der Dinge (IoT) vorkommen, sind diese Probleme deutlich spürbar.

Federated Learning (FL) bietet hier eine vielversprechende Lösung: Durch die dezentrale Modellbildung auf Edge‑Geräten werden Datenschutzbedenken reduziert und die Rechenlast auf die zentralen Server verringert. Doch die statistische Heterogenität – also die Nicht‑IID‑Verteilung der Daten über die verschiedenen Geräte – stellt einen erheblichen Stolperstein dar.

In der vorliegenden Studie wurden die FL‑Algorithmen FedAvg, FedProx und Scaffold unter unterschiedlichen Datenverteilungen untersucht. Ziel war es, ein umfassendes Verständnis der Auswirkungen von statistischer Heterogenität zu gewinnen und gleichzeitig die Erkennung von IoT‑Angriffen zu verbessern. Dazu wurden große IoT‑Angriffe anhand des CICIoT2023‑Datensatzes klassifiziert und die Leistung der Algorithmen verglichen.

Die Ergebnisse zeigen, dass gezielte Anpassungen der FL‑Methoden die Sicherheit von IoT‑Systemen deutlich erhöhen können, selbst wenn die zugrunde liegenden Daten stark variieren. Diese Erkenntnisse legen den Grundstein für robuste, skalierbare Sicherheitslösungen in vernetzten Umgebungen.

Ähnliche Artikel