LLMs als Modelle menschlichen Fahrverhaltens: Tests beim vereinfachten Einmischen
In der virtuellen Sicherheitsbewertung automatisierter Fahrzeuge sind verlässliche Modelle menschlichen Fahrverhaltens unverzichtbar. Traditionelle Modelle stehen jedoch vor dem Dilemma, zwischen Interpretierbarkeit und…
- In der virtuellen Sicherheitsbewertung automatisierter Fahrzeuge sind verlässliche Modelle menschlichen Fahrverhaltens unverzichtbar.
- Traditionelle Modelle stehen jedoch vor dem Dilemma, zwischen Interpretierbarkeit und Flexibilität abzuwägen.
- General‑purpose Large Language Models (LLMs) bieten hier eine vielversprechende Alternative: ein einziges Modell könnte ohne umfangreiche Parameteranpassung in verschied…
In der virtuellen Sicherheitsbewertung automatisierter Fahrzeuge sind verlässliche Modelle menschlichen Fahrverhaltens unverzichtbar. Traditionelle Modelle stehen jedoch vor dem Dilemma, zwischen Interpretierbarkeit und Flexibilität abzuwägen. General‑purpose Large Language Models (LLMs) bieten hier eine vielversprechende Alternative: ein einziges Modell könnte ohne umfangreiche Parameteranpassung in verschiedensten Szenarien eingesetzt werden.
In einer aktuellen Studie wurden die beiden LLMs OpenAI o3 und Google Gemini 2.5 Pro als eigenständige, geschlossene Fahragenten in ein vereinfachtes, eindimensionales Merging‑Szenario eingebettet. Die resultierenden Fahrverhalten wurden anschließend quantitativ und qualitativ mit realen Fahrerdaten verglichen.
Die Ergebnisse zeigen, dass beide Modelle menschlich wirkende, intermittierende Steuerungsmuster sowie taktische Abhängigkeiten von räumlichen Hinweisen reproduzieren. Allerdings gelingt es ihnen nicht, die menschliche Reaktion auf dynamische Geschwindigkeitssignale zuverlässig abzubilden, und die Sicherheitsleistung unterscheidet sich deutlich zwischen den Modellen. Eine systematische Prompt‑Ablation verdeutlicht, dass Prompt‑Komponenten modellspezifische Induktionsbiases darstellen, die nicht übertragbar sind.
Diese Erkenntnisse deuten darauf hin, dass LLMs als sofort einsatzbereite Modelle menschlichen Fahrverhaltens in AV‑Evaluationspipelines dienen könnten. Dennoch sind weitere Untersuchungen nötig, um die Schwachstellen zu verstehen und die Validität dieser Modelle für die Simulation menschlicher Fahrer sicherzustellen.
Welche Linse du auf diese Meldung legen solltest
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.