Agentische Fahrzeuge: Systematische Analyse von Sicherheitsrisiken

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In der rasanten Entwicklung von Agentic AI tauchen immer mehr intelligente Systeme in Fahrzeugen auf – von selbstfahrenden Autos bis hin zu manuellen Fahrzeugen mit erweiterten Assistenzfunktionen. Diese „Agentic Vehicles“ (AgVs) zeichnen sich durch Merkmale wie speicherbasierte Personalisierung, Zielinterpretation, strategisches Denken und tool‑gestützte Unterstützung aus.

Während bestehende Sicherheitsrahmen wie die OWASP‑Agentic AI‑Security‑Risks bereits Schwachstellen in reinen KI‑Systemen aufzeigen, sind sie nicht für die komplexen, sicherheitskritischen Cyber‑Physical‑Plattformen von Fahrzeugen ausgelegt. Sie berücksichtigen zudem nicht die Wechselwirkungen mit anderen Schichten – Wahrnehmung, Kommunikation und Steuerung – die für die Sicherheit von AgVs entscheidend sind.

Die vorliegende Studie untersucht gezielt die Bedrohungen für Agentic Vehicles, indem sie sowohl OWASP‑ähnliche Risiken als auch Angriffe aus den angrenzenden Schichten analysiert. Durch die Einführung einer rollenbasierten Architektur mit einem Personal Agent und einem Driving Strategy Agent werden Schwachstellen in der agentischen Schicht sowie Querschichtrisiken – etwa aus der Wahrnehmungs‑ oder Steuerungsschicht – systematisch beleuchtet.

Ein Severity‑Matrix‑ und Attack‑Chain‑Modell verdeutlicht, wie selbst kleine Verzerrungen zu Fehlverhalten oder gefährlichen Situationen in manuell gesteuerten und autonomen Fahrzeugen führen können. Das Ergebnis ist ein erster, strukturierter Rahmen, der die Sicherheitsanalyse von Agentic AI in bestehenden und zukünftigen Fahrzeugplattformen ermöglicht.

Ähnliche Artikel