Hybrid-Intelligenz: Kombinierte Deep RL und Skripte verbessern Kampfsimulationen
In der Welt der Kampfsimulationen, die für Wargaming-Übungen genutzt werden, hat sich die Entwicklung intelligenter Agenten lange Zeit auf regelbasierte, skriptbasierte Methoden konzentriert. Erst in jüngerer Zeit wurden Deep‑Reinforcement‑Learning‑Ansätze (RL) eingeführt, um die Flexibilität und Lernfähigkeit der Agenten zu erhöhen.
Während skriptbasierte Agenten in kontrollierten Umgebungen zuverlässig und vorhersehbar agieren, stoßen sie bei dynamischen, komplexen Szenarien an ihre Grenzen. RL‑Agenten hingegen passen sich schnell an neue Situationen an, doch ihre Entscheidungsprozesse bleiben oft undurchsichtig und die Skalierbarkeit in großen Simulationen ist problematisch.
Die vorgestellte hierarchische Hybrid‑KI‑Strategie kombiniert das Beste aus beiden Welten: Skripte übernehmen routinemäßige taktische Entscheidungen, während RL‑Agenten für strategische, hochrangige Entscheidungen eingesetzt werden. Durch diese Aufteilung werden die jeweiligen Schwächen ausgeglichen und die Stärken verstärkt.
Ergebnisse zeigen, dass die hybride Architektur die Gesamtleistung der Agenten deutlich steigert. Sie bietet eine robuste, anpassungsfähige und effektive Lösung für die Entwicklung und das Training intelligenter Agenten in komplexen Simulationsumgebungen.