Deep Learning lernt geometrisch komplexe Operatoren ohne Dimensionalitätsfluch
Deep‑Learning‑Methoden haben gezeigt, dass sie Operatoren zwischen hochdimensionalen Räumen – etwa Lösungskarten von partiellen Differentialgleichungen – aus sehr wenigen Trainingsbeispielen rekonstruieren können. Dieses Phänomen der Daten‑Effizienz wurde bislang für elliptische Operatoren mit einfacher Geometrie nachgewiesen, bei denen die Definitionsmenge der Funktionen unverändert bleibt und Singularitäten nicht weiterverbreitet werden.
In der Praxis werden wissenschaftliche Machine‑Learning‑Modelle jedoch häufig für Probleme eingesetzt, bei denen Singularitäten auf unbekannte Weise propagieren, etwa bei Wellen, Advektion oder Fluiddynamik. Die neue Arbeit erweitert die Lerntheorie um sogenannte Double‑Fibration‑Transformations – geometrische Integraloperatoren, die verallgemeinerte Radon‑ und Geodätische‑Strahltransformen einschließen. Der Autor beweist, dass diese Operatoren nicht von der Dimensionalitätsfluch betroffen sind: Der Fehler sinkt superalgebraisch, also schneller als jede feste Potenz des Kehrwerts der Anzahl der Trainingsproben.
Darüber hinaus werden Architekturen vorgestellt, die die Geometrie dieser Transformations explizit einbetten. Ein auf Cross‑Attention basierendes Modell, inspiriert von Level‑Set‑Methoden, liefert eine Parameterisierung, die universell, stabil und in der Lage ist, Double‑Fibration‑Transformations aus nur wenigen Beispielen zu lernen. Diese Ergebnisse tragen wesentlich zur wachsenden theoretischen Basis bei, die das Lernen von Operatoren im wissenschaftlichen Machine Learning untermauert.