TruKAN: Effizientere Kolmogorov-Arnold-Netze mit Potenzfunktionen
In einer neuen Veröffentlichung auf arXiv präsentiert das Forschungsteam die Architektur TruKAN, die die klassische Kolmogorov-Arnold-Netzwerk (KAN)-Struktur mit lernbaren Aktivierungsfunktionen kombiniert. Durch den Ersatz der B-Spline-Basis durch abgeschnittene Potenzfunktionen aus der k‑Ordnung-Spline-Theorie bleibt die Ausdruckskraft des Modells erhalten, während Genauigkeit und Trainingszeit signifikant verbessert werden.
Jede TruKAN‑Schicht verbindet einen abgeschnittenen Potenzterm mit einem Polynomterm und nutzt entweder gemeinsame oder individuelle Knotensätze. Diese Vereinfachung führt zu einer höheren Interpretierbarkeit im Vergleich zu anderen KAN‑Varianten, da die Basisfunktionen klarer strukturiert sind. Das Team hat TruKAN in ein fortschrittliches EfficientNet‑V2‑Framework integriert und die Leistung auf mehreren Computer‑Vision‑Benchmark‑Datensätzen getestet.
Die Ergebnisse zeigen, dass TruKAN die Konkurrenz in Bezug auf Genauigkeit, Rechenleistung und Speicherverbrauch übertrifft. Durch den Einsatz hybrider Optimierungsmethoden wird die Konvergenz stabilisiert, während Layer‑Normierungstechniken die Modelle weiter optimieren. Zusätzlich wurde die Wirkung von gemeinsamen versus individuellen Knotensätzen untersucht, um die optimale Konfiguration für verschiedene Architekturstärken zu bestimmen.
Diese Entwicklungen markieren einen wichtigen Schritt in Richtung effizienterer, transparenterer neuronaler Netzwerke für komplexe Bildverarbeitungsaufgaben und eröffnen neue Perspektiven für die praktische Anwendung von KAN‑basierten Modellen.