Stochastische Netze meistern multidimensionale Unsicherheitsmodelle
Ein neues Papier auf arXiv zeigt, wie stochastische neuronale Netze (SNNs) mithilfe eines Wasserstein‑Abstands Ansatzes multidimensionale Zufallsfeldmodelle aus begrenzten Daten rekonstruieren können. Die Autoren demonstrieren, dass die Trainingsmethode skalierbar bleibt, selbst wenn die Daten in den einzelnen Dimensionen unterschiedlich verrauscht sind.
Durch die Herleitung eines Generalisierungsfehlers für SNNs mit einer endlichen Stichprobe beweisen die Forscher, dass die Konvergenzrate bei heterogenem Rauschen nicht explizit von der Dimensionalität abhängt. Das Ergebnis mildert die sogenannte „Dimensionalitätsfluch“ und erleichtert das Lernen komplexer Modelle aus einer überschaubaren Menge an Messungen.
Darüber hinaus optimiert das Team die bisherige Wasserstein‑Distance‑Trainingsstrategie und demonstriert die Robustheit der Netze in einer Reihe von numerischen Experimenten. Die Simulationen decken verschiedene Aufgaben der multidimensionalen Unsicherheitsquantifizierung ab und bestätigen, dass die verbesserte Methode zuverlässig Unsicherheitsmodelle erlernen kann.