Neues HaKAN-Modell übertrifft Transformer bei Zeitreihenprognosen
In einer kürzlich veröffentlichten Arbeit auf arXiv präsentiert ein Forschungsteam ein innovatives Modell namens HaKAN, das die Grenzen herkömmlicher Transformer- und MLP-Ansätze bei der Vorhersage von Zeitreihen sprengt. HaKAN nutzt Kolmogorov‑Arnold‑Netze (KANs) in Kombination mit Hahn‑Polynomen, um lernbare Aktivierungsfunktionen zu erzeugen, die sowohl leichtgewichtig als auch interpretierbar sind.
Das Modell kombiniert mehrere Schlüsselelemente: Kanalunabhängigkeit, Patch‑Verarbeitung, einen Stapel von Hahn‑KAN‑Blöcken mit Residualverbindungen und eine Bottleneck‑Struktur aus zwei vollständig verbundenen Schichten. Jeder Hahn‑KAN‑Block enthält inter- und intra‑Patch‑KAN‑Schichten, die globale und lokale zeitliche Muster effizient erfassen.
Umfangreiche Experimente an verschiedenen Benchmark‑Datensätzen zeigen, dass HaKAN die aktuellen Spitzenreiter konsequent übertrifft. Ablationsstudien bestätigen die Wirksamkeit der Kernkomponenten und unterstreichen die Leistungsfähigkeit des Ansatzes als leichtgewichtige Alternative zu komplexen Transformer‑Architekturen.