Neurale Operatoren: Zuverlässiger Umgang mit Funktionen außerhalb des Trainings
In einer neuen Veröffentlichung auf arXiv wird ein rigoroses Konzept vorgestellt, das neuronale Operatoren erweitert, um Eingabefunktionen zu verarbeiten, die nicht im Trainingsdatensatz vorkamen. Durch den Einsatz von Kernel‑Approximationstechniken wird ein theoretischer Rahmen geschaffen, der die Eingabe‑Ausgabe‑Beziehungen in Reproducing Kernel Hilbert Spaces (RKHS) beschreibt.
Die Autoren liefern klare Voraussetzungen für die Zuverlässigkeit solcher Erweiterungen und geben Vorhersagen zur Approximationgenauigkeit an. Außerdem wird die Verbindung zwischen spezifischen Kernel‑Auswahlen und den zugehörigen Sobolev‑Native Spaces formalisiert, was es den erweiterten Operatoren ermöglicht, nicht nur Funktionswerte, sondern auch deren Ableitungen präzise zu erfassen.
Die Methode wird anhand der Lösung elliptischer partieller Differentialgleichungen (PDEs) demonstriert, die Operatoren auf Mannigfaltigkeiten mit Punktwolkenrepräsentationen und geometrischen Beiträgen behandeln. Die Ergebnisse zeigen, welche Faktoren die Genauigkeit und die Rechenleistung der Erweiterungsansätze beeinflussen.