Automatisierte Alltagslogik korrigiert Fehlklassifikationen in autonomen Fahrzeugen
Autonome Fahrzeuge sind seit Jahren Gegenstand intensiver Forschung, doch ein echter Level‑5‑Autonomer Markt ist bislang nicht erschienen. Die Autoren des neuen Papers argumentieren, dass die starke Abhängigkeit von reinen Machine‑Learning‑Modellen der Hauptgrund dafür sei. Sie zeigen, wie automatisierte Alltagslogik – also ein systematisches, regelbasiertes Denken – die Lücken dieser Modelle schließen kann.
Insbesondere werden zwei typische, aber selten vorkommende Situationen untersucht: Erstens ein defektes Verkehrszeichen an einer Kreuzung und zweitens eine plötzliche Verlangsamung aller vorausfahrenden Fahrzeuge, weil ein unerwartetes Hindernis – etwa ein Tier – die Straße blockiert. In beiden Fällen gelingt es der vorgeschlagenen Lösung, die Farbe der Ampel korrekt zu erkennen und Hindernisse zu identifizieren, die vom reinen Bildverarbeitungsmodell der Fahrzeuge übersehen wurden.
Ein zentrales Element des Ansatzes ist die Messung der Unsicherheit im Computer‑Vision‑Modell. Sobald die Unsicherheit einen Schwellenwert überschreitet, wird automatisch die Alltagslogik aktiviert, um die Situation zu analysieren und die Fehlklassifikationen zu korrigieren. Die Autoren haben diesen Prozess in der CARLA‑Simulationsumgebung getestet und dabei signifikante Verbesserungen der Objekterkennung erzielt.
Die Arbeit demonstriert, dass hybride Modelle – die Machine‑Learning‑ und regelbasierte Logik kombinieren – einen effektiven Weg darstellen, die Wahrnehmung autonomer Fahrzeuge zu optimieren und damit die Voraussetzungen für Level‑5‑Autonomie zu schaffen.