RL macht Wettermodelle adaptiver: Zustandsabhängige Parameter
Wetter- und Klimamodelle nutzen seit Jahrzehnten Parameterisierungen, um Prozesse zu beschreiben, die zu klein skaliert sind, um sie direkt zu simulieren. Diese Parameter sind jedoch meist festgelegt, werden offline abgestimmt und sind nur schwach an die zugrunde liegende Physik gekoppelt. Das führt zu anhaltenden Biases, die die Fähigkeit der Modelle einschränken, sich an veränderte Zustände anzupassen.
In der vorliegenden Studie wird ein neues Framework vorgestellt, das Reinforcement Learning (RL) einsetzt, um Parameterkomponenten online als Funktion des sich wandelnden Modellzustands zu lernen. Die Methode wurde in einer Reihe idealisierter Testumgebungen geprüft – von einer einfachen Klimabiaskorrektur (SCBC) über ein radiativ-konvektives Gleichgewicht (RCE) bis hin zu einem zonalen Energieausgleichsmodell (EBM). Dabei wurden sowohl Einzelagenten als auch federierte Multi-Agenten-Setups untersucht.
Von neun untersuchten RL-Algorithmen erzielten die Truncated Quantile Critics (TQC), Deep Deterministic Policy Gradient (DDPG) und Twin Delayed DDPG (TD3) die höchste Genauigkeit und die stabilste Konvergenz. Im EBM zeigte sich, dass ein einzelner RL-Agent die statische Parametertuning-Strategie übertraf, insbesondere in tropischen und mittleren Breiten. Federierte RL-Ansätze mit sechs DDPG-Agenten und häufiger Aggregation führten zu einer noch niedrigeren, flächengewichteten RMSE in diesen Regionen.
Die erlernten Korrekturen sind nicht nur statistisch signifikant, sondern auch physikalisch sinnvoll: Die Agenten passen die radiativen Parameter des EBM an, was zu realistischeren Temperaturprofilen und Druckebenen führt. Diese Ergebnisse deuten darauf hin, dass Reinforcement Learning ein vielversprechendes Werkzeug ist, um Wetter- und Klimamodelle dynamisch und zustandsabhängig zu verbessern und damit die Vorhersagegenauigkeit zu erhöhen.