GS‑KAN: Parameter‑effiziente Kolmogorov‑Arnold‑Netze mit geteilten Basisfunktionen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In einer neuen Veröffentlichung auf arXiv präsentiert das Team die GS‑KAN‑Architektur, die das Kolmogorov‑Arnold‑Theorem in einer schlanken, parameter‑effizienten Form nutzt. Durch die Kombination von einheitlichen Basisfunktionen und lernbaren linearen Transformationen pro Schicht reduziert GS‑KAN die Parameterzahl drastisch, ohne die Approximationstiefe zu verlieren.

Der Kern der Methode liegt darin, dass jede Kante eines Netzes nicht mehr ihre eigene, unabhängige Funktion besitzt. Stattdessen wird eine einzige, lernbare Elternfunktion pro Layer verwendet, die über lineare Transformationen an die jeweiligen Kanten angepasst wird. Diese Idee, inspiriert von David Sprecher’s Verfeinerung des Superpositionssatzes, führt zu einer drastischen Reduktion der Parameterzahl und einer erheblichen Beschleunigung der Trainingszeit.

Die Experimente zeigen, dass GS‑KAN sowohl bei der Approximation kontinuierlicher Funktionen als auch bei tabellarischen Regressionsaufgaben die Leistung von herkömmlichen MLPs und Standard‑KAN‑Modellen übertrifft. Besonders auffällig ist die Performance bei hochdimensionalen Klassifikationsaufgaben, wo GS‑KAN die Genauigkeit von MLPs deutlich steigert und gleichzeitig die Parameterzahl weit unter dem von Standard‑KAN‑Netzen hält.

Diese Fortschritte eröffnen die Möglichkeit, Kolmogorov‑Arnold‑Netze in Szenarien mit strengen Parameterbeschränkungen einzusetzen – ein Bereich, in dem bisherige Implementierungen aufgrund von Parameterexplosionen kaum praktikabel waren. Der komplette Quellcode ist auf GitHub verfügbar: https://github.com/rambamn48/g.

Ähnliche Artikel