FLAD: Federated Learning für LLM-basierte autonome Fahrten in Fahrzeug-Edge-Cloud
Large Language Models (LLMs) zeigen beeindruckende Fähigkeiten zur Datenfusion und zum logischen Denken – Eigenschaften, die für die autonome Fahrzeugsteuerung entscheidend sind. Die eigentliche Herausforderung liegt jedoch in der Schulung dieser Modelle: Hohe Rechen- und Übertragungsaufwände sowie sensible Fahrdaten erfordern neue Ansätze, die sowohl effizient als auch datenschutzfreundlich sind.
Mit dem neuen Framework FLAD (Federated LLM-based Autonomous Driving) wird genau das ermöglicht. FLAD nutzt Federated Learning, um mehrere autonome Fahrzeuge (AVs) zusammenarbeiten zu lassen, ohne dass rohe Daten geteilt werden. Das System kombiniert drei zentrale Innovationen:
- Eine cloud‑edge‑vehicle‑architektur, die Kommunikationsverzögerungen reduziert und gleichzeitig die Privatsphäre der Fahrzeugdaten schützt.
- Ein intelligentes, parallelisiertes Trainingsverfahren mit einem Kommunikations‑Scheduling‑Mechanismus, der die Effizienz steigert und auch Geräten mit begrenzten Ressourcen die Teilnahme erlaubt.
- Ein Knowledge‑Distillation‑Ansatz, der das LLM an die heterogenen Sensordaten der einzelnen Edge‑Knoten anpasst.
Die praktische Umsetzung wurde in einem Testfeld mit NVIDIA Jetsons realisiert. Dort wurden typische Herausforderungen wie CPU/GPU‑Speicheraustausch, dynamische Modellpartitionierung und fehlertolerantes Training erfolgreich bewältigt.
Umfangreiche Experimente zeigen, dass FLAD die End‑zu‑End‑Leistung der autonomen Fahrung deutlich verbessert und gleichzeitig die vorhandenen Fahrzeugressourcen optimal nutzt. Damit eröffnet das System neue Perspektiven für kollaboratives Training und Wissensaustausch in verteilten Fahrzeug‑Edge‑Cloud‑Netzwerken.