Transformer-gestütztes DRL optimiert Energieverbrauch bei eVTOL-Start
Die rasante Entwicklung von elektrischen Hub- und Landeflugzeugen (eVTOL) eröffnet neue Möglichkeiten, den städtischen Verkehr zu entlasten. Damit diese Flugzeuge breiter eingesetzt werden können, ist die Gestaltung von Starttrajektorien mit minimalem Energieverbrauch entscheidend.
Traditionelle Optimierungsverfahren wie dynamische Programmierung oder lineare quadratische Regler liefern zwar effiziente Lösungen, stoßen jedoch bei hoher Dimensionalität und Komplexität an ihre Grenzen. Deep Reinforcement Learning (DRL) bietet eine vielversprechende Alternative, leidet jedoch unter schwieriger Trainingsanforderung.
Um dieses Problem zu lösen, wurde ein transformer‑gestütztes DRL entwickelt. Der Transformer durchsucht zu jedem Zeitschritt den realistischen Zustandsraum und erleichtert so das Training. In einem Testfall für die optimale Starttrajektorie eines eVTOL‑Drohnen wurde gezeigt, dass der Agent mit 4,57 Mio. Zeitschritten – nur 25 % der 19,79 Mio. Zeitschritten eines herkömmlichen DRL – die Aufgabe bewältigt. Gleichzeitig erreichte die Methode eine Genauigkeit von 97,2 % im Vergleich zur simulationsbasierten Referenz.
Diese Ergebnisse deuten darauf hin, dass transformer‑gestütztes DRL die Trainingszeit erheblich verkürzt und gleichzeitig hochpräzise Trajektorien für energieeffiziente eVTOL‑Starts liefert.