Konformes Lernen sichert autonome Systeme: Ensemble‑Sicherheitsfilter und HJ‑Analyse

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die Sicherheit von lernbasierten autonomen Systemen ist entscheidend, wenn sie in der Praxis eingesetzt werden sollen. Traditionell nutzt man dafür die Hamilton‑Jacobi‑(HJ)‑Erreichbarkeitsanalyse, um die Rückwärtsreichbare Menge (BRS) von definierten Fehlerzuständen exakt zu bestimmen. Doch die Berechnung der HJ‑Wertfunktion ist bei hochdimensionalen Systemen extrem rechenintensiv, weshalb Forscher verstärkt auf Reinforcement‑Learning‑Ansätze setzen, um die Wertfunktion zu approximieren.

Ein Problem dabei ist, dass eine erlernte Wertfunktion nicht zwangsläufig die tatsächliche Sicherheitsrendite widerspiegelt, wenn der zugehörige sichere Steuerungsplan ausgeführt wird. Ohne eine Garantie kann ein System dennoch in einen Fehlerzustand geraten.

Um diesem Risiko entgegenzuwirken, stellt die neue Arbeit ein konformes Vorhersage‑Framework (Conformal Prediction, CP) vor. CP liefert probabilistische Unsicherheitsgrenzen, die die Wechselwirkung zwischen dem unsicheren Nominalcontroller und der erlernten HJ‑basierten sicheren Policy steuern. Durch die Kalibrierung dieser Schaltpunkte kann das System mit einer quantifizierten Sicherheit von Fehlerzuständen ferngehalten werden.

Darüber hinaus wird untersucht, ob ein Ensemble von unabhängig trainierten HJ‑Wertfunktionen als Sicherheitsfilter effektiver ist als einzelne Modelle. Der Vergleich zeigt, dass die Ensemble‑Strategie die Zuverlässigkeit der Sicherheitsgarantien weiter erhöht.

Zusammenfassend bietet die Kombination aus konformem Lernen, HJ‑Analyse und Ensemble‑Sicherheitsfiltern einen robusten, probabilistischen Ansatz, um autonome Steuerungssysteme zuverlässig vor Fehlerzuständen zu schützen.

Ähnliche Artikel