Neutrale Operatoren mit Diffusionsschicht: Unsicherheit zuverlässig quantifizieren
Neurale Operatoren haben sich als leistungsstarkes Paradigma etabliert, um diskretisierungunabhängige Abbildungen von Funktionen auf Funktionen in der wissenschaftlichen Berechnung zu erlernen. In vielen praktischen Anwendungen sind die zugrunde liegenden Systeme jedoch stochastisch, sodass eine fundierte Quantifizierung von Unsicherheit unerlässlich ist, um zuverlässige Vorhersagen zu ermöglichen.
Um dieses Problem zu lösen, stellen die Autoren die Diffusionsschicht (DLL) vor – ein leichtgewichtiges probabilistisches Kopfmodul, das beliebigen neuronalen Operatoren hinzugefügt werden kann. DLL modelliert die bedingte Ausgabewahrscheinlichkeit direkt im Funktionsraum, indem es eine low‑rank Karhunen‑Loève‑Expansion nutzt, die die typische Glattheit und niedrige Dimensionalität von PDE‑Lösungsverteilungen ausnutzt. Dadurch entsteht ein effizientes und ausdrucksstarkes Unsicherheitsmodell.
In einer Reihe von Benchmarks für stochastische PDE‑Operatoren zeigte DLL eine verbesserte Generalisierung und ermöglichte Unsicherheits‑bewusste Vorhersagen. Selbst in deterministischen, langfristigen Rollout‑Szenarien steigerte DLL die Stabilität der Simulationen und liefert sinnvolle Schätzungen epistemischer Unsicherheit für die zugrunde liegenden neuronalen Operatoren.