Neural Operator generalisiert PDE-Emulation – neue, vielseitige Lösung

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die Lösung partieller Differentialgleichungen (PDEs) ist mit klassischen numerischen Verfahren oft mit enormen Rechenaufwand verbunden. Traditionelle Deep‑Learning‑Surrogatmodelle sind dagegen meist auf eine einzige PDE mit festen Parametern ausgelegt. In einer neuen Veröffentlichung auf arXiv wird ein Rahmenwerk vorgestellt, das PDE‑Emulationen generalisiert, indem es einen neuronalen Operator mit einer Vektor‑Kodierung der Gleichungsterm‑Struktur und ihrer Koeffizienten konditioniert.

Das Team hat vier unterschiedliche Modellierungsansätze als Basis definiert und diese auf einer Familie von eindimensionalen PDEs aus dem APEBench‑Set trainiert. Durch die explizite Einbindung der Gleichungsstruktur kann das Modell nicht nur die im Trainingsdatensatz vorkommenden Parameterbereiche exakt abbilden, sondern auch Parameterkombinationen, die im Training nicht gesehen wurden, zuverlässig vorhersagen.

Die Ergebnisse zeigen, dass das Verfahren bei aus dem Trainingsverteilung herausgehaltenen Parameterwerten eine starke Leistung erzielt, Rollouts über das Trainingsfenster hinaus stabil bleiben und sogar auf völlig unbekannte PDEs übertragbar ist. Damit demonstriert das System eine robuste Generalisierung, die bisher bei Deep‑Learning‑Surrogaten selten erreicht wurde.

Dieses Werk ist Teil einer umfassenderen Initiative, die darauf abzielt, KI‑Systeme zu entwickeln, die die Erstellung von Experten‑Level‑Software für messbare wissenschaftliche Aufgaben automatisieren. Der komplette Datensatz und die zugehörige Codebasis stehen unter https://github.com/google-research/generalized-pde-emulator zur Verfügung.

Ähnliche Artikel