LLM-gestützte Szenarienerzeugung erhöht Sicherheitstest für autonome Fahrzeuge
Autonome Fahrzeuge stehen vor der Herausforderung, seltene und komplexe Interaktionen zu bewältigen, die in realen Daten kaum vorkommen, aber für eine robuste Sicherheitsvalidierung entscheidend sind. Ein neues Verfahren kombiniert einen konditionalen Variational Autoencoder (CVAE) mit einem großen Sprachmodell (LLM), um hochrealistische Testszenarien zu erzeugen.
Der CVAE verarbeitet historische Fahrtrajektorien und Karteninformationen aus umfangreichen Datensätzen, um latente Verkehrsstrukturen zu lernen. Auf dieser Basis entstehen physikalisch konsistente Grundszenarien. Anschließend übernimmt das LLM die Rolle eines adversarialen Denkengines: Es wandelt unstrukturierte Szenenbeschreibungen in domänenspezifische Verlustfunktionen um und steuert die Szenarienerzeugung dynamisch über verschiedene Risikoniveaus hinweg.
Durch diese wissensbasierte Optimierung wird ein Gleichgewicht zwischen Realismus und Steuerbarkeit erreicht, sodass die generierten Szenarien sowohl glaubwürdig als auch risikosensitiv bleiben. Umfangreiche Tests in den Simulationsumgebungen CARLA und SMARTS zeigen, dass das System die Abdeckung von Hochrisiko- und Long-Tail-Ereignissen deutlich erhöht, die Übereinstimmung mit realen Verkehrsverteilungen verbessert und autonome Systeme mit Interaktionen konfrontiert, die herkömmliche regel- oder datenbasierte Methoden nicht erreichen.
Die Ergebnisse eröffnen einen neuen Ansatz für die Sicherheitsvalidierung, der es ermöglicht, autonome Systeme gezielt unter seltenen, aber entscheidenden Ereignissen zu stressen und so die Zuverlässigkeit in der Praxis zu erhöhen.