Neue Echtzeit-Strategie für Jagdspiele mit unvollständiger Beobachtung
Ein neues Forschungsdokument aus dem arXiv präsentiert die erste Methode, um in Jagd- und Fluchtszenarien (Pursuit‑Evasion Games, PEGs) robuste Echtzeit‑Strategien zu entwickeln, selbst wenn die Jäger nur unvollständige Informationen über den Flüchtigen besitzen.
Die Berechnung von Worst‑Case‑Robust‑Strategien in PEGs ist bislang sehr rechenintensiv, besonders wenn reale Faktoren wie partielle Beobachtbarkeit einbezogen werden. Während moderne Reinforcement‑Learning‑Ansätze wie Equilibrium Policy Generalization (EPG) und Grasper zwar robuste Graph‑Neural‑Network‑Politiken für perfekte Information liefern, berücksichtigen sie nicht die Möglichkeit, dass der Flüchtige die Aktionen der Jäger vorhersagen kann.
Die vorgestellte R2PS‑Methode (Real‑Time Pursuit Strategies) demonstriert zunächst, dass ein klassischer Dynamic‑Programming‑Ansatz für Markov‑PEGs auch bei asynchronen Zügen des Flüchtigen optimal bleibt. Anschließend wird ein Mechanismus zur Wahrung von Glaubensverteilungen über mögliche Positionen des Flüchtigen eingeführt, wodurch die DP‑Strategien auf partielle Beobachtbarkeit erweitert werden.
Durch die Integration dieses Glaubens‑Erhaltungsmechanismus in das EPG‑Framework entsteht ein Lernverfahren, das in Echtzeit Jägerpolitiken erzeugt, die gegen asynchrone‑Zug‑Strategien des Flüchtigen robust sind. Nach dem Training zeigt die Politik eine starke Zero‑Shot‑Generalisation auf bisher unbekannte Spielvarianten, was erhebliche Fortschritte für Sicherheits‑ und Robotik‑Anwendungen bedeutet.