Neural Operators: Universelle Modelle durch Multiphysics‑Pretraining

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Neural Operators, die in datengetriebenen physikalischen Simulationen eingesetzt werden, sind bislang wegen ihres hohen Trainingsaufwands teuer. In einer neuen Studie auf arXiv (2511.10829v1) wird gezeigt, wie ein vortrainiertes Modell auf einfacheren Problemen anschließend auf komplexere Aufgaben übertragen werden kann.

Die Forscher nutzen transformerbasierte Neural Operators, die bisher nur für spezielle Probleme entwickelt wurden. Durch ein Multiphysics‑Pretraining lernen die Modelle zunächst grundlegende physikalische Zusammenhänge. Anschließend werden sie mit wenigen zusätzlichen Daten auf neue Parameterbereiche, zusätzliche Variablen und mehrgleisige Gleichungssysteme feinjustiert.

Die Ergebnisse sind vielversprechend: Die fortgeschrittenen Architekturen übertragen ihr Wissen erfolgreich zwischen unterschiedlichen partiellen Differentialgleichungen. Das eröffnet einen Weg, die Rechenkosten drastisch zu senken und gleichzeitig die Genauigkeit bei der Lösung komplexer physikalischer Probleme zu erhöhen.

Ähnliche Artikel