Neue Methode nutzt KI, um Verkehrslichtsteuerung zu optimieren

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Verkehrslichtsteuerung steht vor einem schwierigen Dilemma: klassische Heuristiken sind schnell und effizient, aber zu stark vereinfacht, während Deep Reinforcement Learning (DRL) hervorragende Leistungen erzielt, jedoch schlecht generalisiert und schwer zu interpretieren ist. Online Large Language Models (LLMs) bieten zwar allgemeine Denkfähigkeiten, sind aber mit hoher Latenz verbunden und optimieren nicht speziell für Verkehrs­umgebungen.

Um diese Herausforderungen zu meistern, präsentiert die neue Studie die „Temporale Politik‑Evolution für Verkehr“ (TPE). Dabei fungiert ein LLM als Evolutionsmotor, der maßgeschneiderte, heuristische Steuerungs­strategien entwickelt – ohne dass ein neuronales Netzwerk trainiert werden muss. Das Ergebnis sind leichtgewichtige, robuste Policies, die sich exakt an die jeweilige Verkehrs­landschaft anpassen.

Der Ansatz besteht aus zwei Kernmodulen: Structured State Abstraction (SSA) wandelt hochdimensionale Verkehrsdaten in zeitlich‑logische Fakten um, sodass das LLM gezielt darüber nachdenken kann. Credit Assignment Feedback (CAF) verfolgt fehlerhafte Mikroentscheidungen bis zu ihren makroskopischen Folgen und liefert gezielte Kritik, die die Policy weiter verbessert.

Tests zeigen, dass TPE sowohl klassische Heuristiken als auch Online‑LLM‑Akteure übertrifft. Durch die Kombination von LLM‑Intelligenz und strukturiertem Feedback liefert die Methode effiziente, anpassungsfähige Steuerungs­lösungen, die sofort einsatzbereit sind und die Verkehrs­flüsse nachhaltig optimieren.

Ähnliche Artikel