SVGP KAN: Neue Methode für Unsicherheitsquantifizierung in wissenschaftlichem ML
Kolmogorov‑Arnold‑Netze (KAN) haben sich als interpretierbare Alternativen zu klassischen Multi‑Layer‑Perceptrons etabliert. In ihrer Standardform fehlt jedoch eine systematische Möglichkeit, Unsicherheiten zu quantifizieren – ein entscheidendes Feature für viele wissenschaftliche Anwendungen. Mit dem neuen Ansatz Sparse Variational Gaussian Process Kolmogorov‑Arnold Networks (SVGP KAN) wird dieses Problem gelöst.
Der Kern des Frameworks ist die Kombination aus sparsamer variationaler Gauss‑Process‑Inference und der KAN‑Architektur. Dadurch wird eine skalierbare Bayessche Inferenz erreicht, deren Rechenaufwand nahezu linear zur Stichprobengröße wächst. Durch analytisches Moment‑Matching wird die Unsicherheit durch die tiefen additiven Strukturen propagiert, ohne die Interpretierbarkeit zu verlieren.
In drei exemplarischen Studien demonstriert SVGP KAN die Trennung von aleatorischer und epistemischer Unsicherheit: 1) Kalibrierung heteroskedastischer Messrauschen bei der Rekonstruktion von Fluidströmungen, 2) Quantifizierung des Vertrauensverlustes bei mehrstufigen Vorhersagen von Advektions‑Diffusions‑Dynamiken und 3) Erkennung von Out‑of‑Distribution‑Beispielen in konvolutionellen Autoencodern.
Die Ergebnisse zeigen, dass SVGP KAN ein vielversprechendes Architekturkonzept für unsicherheitsbewusstes Lernen in der wissenschaftlichen KI darstellt und damit neue Möglichkeiten für robuste, interpretierbare Modelle eröffnet.