LLM-basierte Fahrzeugtrajektorien: Schwachstellen bei Sicherheitsangriffen entdeckt

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die Integration großer Sprachmodelle (LLMs) in automatisierte Fahrsysteme eröffnet neue Möglichkeiten für das logische Denken und die Entscheidungsfindung, indem komplexe Fahrszenarien in sprachlich verständliche Darstellungen übersetzt werden. Studien zeigen, dass feinabgestimmte LLMs Fahrzeugtrajektorien und Spurwechselabsichten präzise vorhersagen können, indem sie Daten aus der Umgebung verarbeiten.

Wie robust diese LLM-basierten Vorhersagemodelle jedoch in sicherheitskritischen Fahrsituationen sind, blieb bislang ungeklärt. In einer systematischen Schwachstellenanalyse wurde ein Angriff entwickelt, der eine einzelne kinematische Eigenschaft eines Nachbarfahrzeugs in den Eingabeaufforderungen des LLMs leicht verändert. Der Angriff funktioniert im Black-Box-Modus und nutzt eine differenzielle Evolutionsstrategie.

Durch Experimente mit dem highD-Datensatz wurde deutlich, dass selbst physikalisch plausibel kleine Störungen die Modellvorhersagen erheblich verfälschen können. Dies unterstreicht die Anfälligkeit von LLM-gesteuerten Fahrzeugsystemen gegenüber adversarialen Manipulationen.

Die Untersuchung beleuchtet zudem das Spannungsfeld zwischen Genauigkeit und Robustheit, analysiert die Fehlermechanismen und diskutiert mögliche Gegenmaßnahmen. Die Ergebnisse liefern erstmals konkrete Einblicke in die Angriffsanfälligkeit von LLM-gestützten Fahrzeugmodellen und betonen die Notwendigkeit robuster, vertrauenswürdiger Designs für zukünftige intelligente Transportsysteme.

Ähnliche Artikel