DriveSafe: Neue Risikoklassifikation für LLM-basierte Fahrassistenzsysteme
In modernen Fahrzeugen werden immer häufiger Sprachmodelle wie große Sprachmodelle (LLMs) eingesetzt, um Fahrerinnen und Fahrer mit digitalen Assistenten zu unterstützen. Doch wenn diese Modelle unsichere, mehrdeutige oder rechtlich inkorrekte Antworten liefern, können schwerwiegende Sicherheits-, Ethik- und Regulierungsprobleme entstehen.
Um diese speziellen Gefahren besser zu verstehen, hat ein Forschungsteam die neue Taxonomie DriveSafe entwickelt. Sie gliedert die Risiken in vier hierarchische Ebenen und umfasst 129 sehr detaillierte, atomare Risikokategorien. Dabei werden technische, rechtliche, gesellschaftliche und ethische Aspekte berücksichtigt – alles basierend auf realen Verkehrsregeln und Sicherheitsprinzipien und von Fachleuten geprüft.
Die Autoren haben die Taxonomie praktisch getestet, indem sie die „Verweigerungs“-Verhalten von sechs weit verbreiteten LLMs auf die erstellten Risikoprompts angewendet haben. Die Ergebnisse zeigen, dass die Modelle häufig nicht angemessen ablehnen, wenn sie mit unsicheren oder nicht konformen Fahrfragen konfrontiert werden. Das verdeutlicht, dass die allgemeine Sicherheitsausrichtung von LLMs im Kontext des Fahrens noch nicht ausreicht.
DriveSafe liefert damit ein wertvolles Werkzeug für Entwickler, Prüfer und Regulierungsbehörden, um die Sicherheit von KI‑gestützten Fahrassistenzsystemen gezielt zu verbessern. Die Taxonomie ermöglicht es, Risiken präziser zu identifizieren, zu bewerten und zu adressieren – ein entscheidender Schritt, um die Integration von LLMs in Fahrzeugen sicherer und vertrauenswürdiger zu gestalten.