DRL mit Representation Learning optimiert Wasserstoff-Multi-Energiesysteme

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Wasserstoffbasierte Multi‑Energiesysteme (HMES) gelten als vielversprechende, kohlenstoffarme Lösung, die Strom, Wärme und Kühlung miteinander verknüpft. Durch die koordinierte Steuerung dieser Energieformen kann die betriebliche Flexibilität erhöht, die Gesamteffizienz gesteigert und die Integration erneuerbarer Quellen vorangetrieben werden.

Die optimale Regelung von HMES ist jedoch schwierig, weil die Wasserstoff‑Energiespeichersysteme (HESS) – bestehend aus Elektrolyseuren, Brennstoffzellen und Tanks – nichtlineare, mehrphysikalische Dynamiken aufweisen. Zusätzlich wirken zahlreiche Unsicherheiten aus Angebot und Nachfrage auf das System ein.

Um diesen Herausforderungen zu begegnen, wurde ein umfassendes Betriebsmodell entwickelt, das die komplexen Wechselwirkungen von HESS exakt abbildet. Darauf aufbauend wurde ein Deep‑Reinforcement‑Learning‑Framework (DRL) mit modernen Representation‑Learning‑Techniken kombiniert. Diese Kombination beschleunigt die Policy‑Optimierung erheblich und liefert bessere Ergebnisse als klassische DRL‑Ansätze.

Experimentelle Tests mit realen Datensätzen zeigen, dass das neue Modell die Sicherheit und Zuverlässigkeit von HESS gewährleistet. Gleichzeitig demonstriert die SR‑DRL‑Lösung eine deutlich höhere Konvergenzrate und reduziert die Betriebskosten von HMES, während gleichzeitig die Systemgrenzen eingehalten werden. Die Ergebnisse unterstreichen die Bedeutung von Representation Learning für die effiziente Steuerung komplexer Energiesysteme.

Ähnliche Artikel