Neue Sparse Variational GP‑KAN: Skalierbare, interpretierbare KI für große Daten

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Kolmogorov‑Arnold‑Netze (KANs) haben sich als vielversprechende Alternative zu klassischen Multi‑Layer‑Perceptrons etabliert, indem sie lernbare univariate Funktionen auf den Netzwerk­kanten platzieren und dadurch die Interpretierbarkeit erhöhen. Ein entscheidendes Limitationen‑Punkt blieb jedoch die fehlende probabilistische Ausgabe, die in vielen wissenschaftlichen Anwendungen, in denen Unsicherheitsabschätzungen erforderlich sind, ein Hindernis darstellt.

Mit der Einführung des Sparse Variational GP‑KAN (SVGP‑KAN) wird dieses Problem gelöst. Durch die Kombination von sparsamer variationaler Inferenz mit der KAN‑Architektur nutzt das Modell $M$ Induktionspunkte und analytische Moment‑Matching‑Methoden, wodurch die Rechenkomplexität von $O(N^3)$ auf $O(NM^2)$ oder sogar linear in der Stichprobengröße reduziert wird. Diese Optimierung macht probabilistische KANs nun für große wissenschaftliche Datensätze praktikabel.

Ein weiteres Highlight des Ansatzes ist die Integration einer permutationsbasierten Wichtigkeitsanalyse. Damit kann das Netzwerk nicht nur Unsicherheiten quantifizieren, sondern auch als Werkzeug zur Strukturerkennung dienen: Es identifiziert relevante Eingaben und klassifiziert funktionale Zusammenhänge, was besonders in der Analyse komplexer physikalischer und biologischer Systeme von großem Nutzen ist.

Ähnliche Artikel