Neues dynamisches System-Framework sichert und bewertet Reinforcement-Learning-Modelle
Die Anwendung von Reinforcement Learning (RL) in sicherheitskritischen Systemen bleibt bislang durch das Fehlen formaler Prüfmethoden für Robustheit und Sicherheit eingeschränkt. Ein neues Forschungsdokument präsentiert ein innovatives Rahmenwerk, das dieses Problem löst, indem es die Kombination aus RL-Agent und Umgebung als diskrete, autonome dynamische Systemanalyse betrachtet.
Durch den Einsatz von Werkzeugen aus der Dynamiktheorie, insbesondere des Finite-Time Lyapunov Exponent (FTLE), werden Lagrange’sche kohärente Strukturen (LCS) identifiziert und visualisiert. Diese Strukturen bilden das verborgene „Skelett“, das das Verhalten des Systems bestimmt. Abstoßende LCS wirken als Sicherheitsbarrieren um gefährliche Bereiche, während anziehende LCS die Konvergenz des Systems und mögliche Fehlermodi aufzeigen, etwa unerwünschte „Falle“-Zustände.
Um die reine Visualisierung zu ergänzen, werden quantitative Kennzahlen eingeführt: Mean Boundary Repulsion (MBR), Aggregated Spurious Attractor Strength (ASAS) und Temporally-Aware Spurious Attractor Strength (TASAS). Diese Metriken ermöglichen eine formale Messung des Sicherheitsabstands und der Robustheit einer Policy. Zusätzlich bietet das Framework Verfahren zur Ableitung lokaler Stabilitätsgarantien und erweitert die Analyse um Unsicherheiten im Modell.
Experimentelle Tests in diskreten und kontinuierlichen Steuerungsumgebungen zeigen, dass das neue Framework eine umfassende und interpretierbare Bewertung des Policy-Verhaltens liefert. Es erkennt kritische Schwachstellen auf, die bei herkömmlichen Belohnungsmetriken verborgen bleiben, und bietet damit einen wichtigen Schritt zur sicheren Integration von RL in reale Anwendungen.