Neural PDE-Lösungen: Training-freie Projektionen reduzieren Fehler drastisch
Neurale Netzwerke, die partielle Differentialgleichungen (PDEs) lösen, sind in der wissenschaftlichen Simulation zunehmend beliebt. Sie stoßen jedoch häufig an die Grenze, wenn die zugrunde liegenden physikalischen Gleichungen nicht exakt eingehalten werden. Gerade bei linearen Einschränkungen lässt sich das Problem mit einfachen Projektionen lösen, doch die meisten relevanten Bedingungen sind nichtlinear und erschweren die direkte Projektion auf den zulässigen Lösungsraum.
In der aktuellen Studie wurden zwei völlig trainingsfreie, nachträgliche Projektionen untersucht, die auf bereits berechneten Näherungslösungen angewendet werden. Die erste Methode nutzt eine nichtlineare Optimierung, um die Lösung in den zulässigen Bereich zu verschieben. Die zweite Methode basiert auf einer lokalen Linearisation und verwendet dabei Jacobian‑Vektor‑ und Vektor‑Jacobian‑Produkte, um die Anpassung effizient zu berechnen.
Durch die Analyse verschiedener repräsentativer PDEs zeigte die Arbeit, dass beide Projektionen die Verletzungen der Gleichungen signifikant reduzieren und die Genauigkeit der Lösungen im Vergleich zu herkömmlichen physikinformierten Baselines deutlich verbessern. Diese Ergebnisse deuten darauf hin, dass trainingsfreie Projektionen ein vielversprechender Ansatz sind, um die Zuverlässigkeit neuronaler PDE‑Solver zu erhöhen, ohne zusätzliche Trainingsschritte zu erfordern.