Autonome Fahrzeuge lernen ethisch zu fahren – Safe RL integriert Moral
Autonome Fahrzeuge versprechen, Verkehrsunfälle drastisch zu reduzieren und die Mobilität effizienter zu gestalten. Damit diese Technologie jedoch breit eingesetzt werden kann, muss sie in der Lage sein, ethische Entscheidungen in alltäglichen und Notfallsituationen zu treffen.
Eine neue Studie präsentiert ein hierarchisches Safe‑Reinforcement‑Learning‑Framework, das Moral direkt in die Fahrentscheidungen einbettet. Auf Entscheidungsebene wird ein Agent mit einem zusammengesetzten ethischen Risikokosten trainiert, der sowohl die Kollisionswahrscheinlichkeit als auch die Schwere möglicher Verletzungen berücksichtigt. Durch einen dynamischen Prioritized Experience Replay‑Mechanismus werden seltene, aber kritische Ereignisse besonders stark gewichtet, sodass der Agent aus den gefährlichsten Situationen am meisten lernt.
Auf Ausführungsebene wandelt das System die hochrangigen Bewegungsziele in sanfte, realisierbare Pfade um. Hierfür werden polynomial Pfadplanung, PID‑Regler und Stanley‑Controller kombiniert, die zusammen für Präzision und Fahrkomfort sorgen. Diese Kombination aus formaler Regelungstechnik und datengetriebenem Lernen ermöglicht eine stabile Umsetzung der ethischen Vorgaben.
Die Autoren haben ihr Konzept mit umfangreichen, realen Verkehrsdaten trainiert und validiert, die Fahrzeuge, Radfahrer und Fußgänger in vielfältigen Szenarien abbilden. Die Ergebnisse zeigen, dass das Safe‑RL‑Modell die ethische Risikoreduktion deutlich verbessert und gleichzeitig die Fahrleistung gegenüber herkömmlichen Methoden übertrifft. Nach Angaben der Forscher ist dies das erste Mal, dass ethische Entscheidungsfindung für autonome Fahrzeuge in realen Umgebungen mittels Safe RL demonstriert wird, und es eröffnet neue Wege für verantwortungsbewusste, menschenorientierte Autonomie im Straßenverkehr.