HARL-Ansatz beschleunigt Wiederherstellung von Stromnetzen nach Ausfällen
Ein neuer Ansatz aus dem Bereich des heterogenen Multi-Agenten-Reinforcement-Learnings (HARL) verspricht, die Wiederherstellung von Stromverteilungsnetzen nach großflächigen Ausfällen deutlich zu beschleunigen. Durch die Kombination von Heterogeneous-Agent Proximal Policy Optimization (HAPPO) mit einem physikbasierten OpenDSS‑Umfeld können mehrere Mikrogrids gleichzeitig koordiniert werden, während gleichzeitig die komplexen, nichtlinearen Vorgaben wie Strombilanz, Spannungsgrenzen und thermische Belastungen berücksichtigt werden.
Im Gegensatz zu herkömmlichen Optimierungs- und wertbasierten RL‑Methoden, die bei solchen Problemen oft rechenintensiv und schwer skalierbar sind, nutzt HAPPO dezentrale Aktor‑Politiken, die von einem zentralen Kritiker unterstützt werden. Dieser berechnet die Vorteilwerte, die für stabile On‑Policy‑Updates sorgen. Durch die Verwendung differenzierbarer Strafsignale statt der üblichen ungültigen Aktionsmaskierung erhält das System ein präziseres Feedback zu den Betriebslimits.
Die Experimente auf den IEEE‑123‑Bus‑ und IEEE‑8500‑Knoten‑Systemen zeigen, dass HAPPO schneller konvergiert, mehr Strom wiederherstellt und bei mehreren Trainingsstarts stabiler arbeitet als DQN, PPO, MAES, MAGDPG, MADQN, Mean‑Field RL und QMIX. Die Ergebnisse unterstreichen, dass die Einbeziehung mikrogridspezifischer Heterogenität innerhalb des HARL‑Rahmens zu einer skalierbaren, stabilen und effizienten Lösung für die Netzwiederherstellung führt.