Phasor-Transformer: Effiziente globale Token-Mischung für Zeitreihen
Transformer haben die Verarbeitung von Sequenzen revolutioniert, doch die klassische dot‑product‑Self‑Attention erzeugt bei langen Zeitreihen einen quadratischen Engpass. Der neue Phasor‑Transformer löst dieses Problem…
- Transformer haben die Verarbeitung von Sequenzen revolutioniert, doch die klassische dot‑product‑Self‑Attention erzeugt bei langen Zeitreihen einen quadratischen Engpass.
- Der neue Phasor‑Transformer löst dieses Problem, indem er die Zustände der Sequenz auf der Einheitskreis‑Mannigfaltigkeit S¹ abbildet und damit eine völlig neue Art der…
- Jeder Phasor‑Transformer‑Block kombiniert leichte, lernbare Phasenverschiebungen mit einer parameter‑freien, diskreten Fourier‑Transformation (DFT).
Transformer haben die Verarbeitung von Sequenzen revolutioniert, doch die klassische dot‑product‑Self‑Attention erzeugt bei langen Zeitreihen einen quadratischen Engpass. Der neue Phasor‑Transformer löst dieses Problem, indem er die Zustände der Sequenz auf der Einheitskreis‑Mannigfaltigkeit S¹ abbildet und damit eine völlig neue Art der Token‑Mischung ermöglicht.
Jeder Phasor‑Transformer‑Block kombiniert leichte, lernbare Phasenverschiebungen mit einer parameter‑freien, diskreten Fourier‑Transformation (DFT). Durch diese Kombination entsteht ein globaler Token‑Kopplungsmechanismus, der in O(N log N) arbeitet – ohne explizite Aufmerksamkeitskarten. Durch Stapeln dieser Blöcke entsteht das Large Phasor Model (LPM), das mit einem sehr kompakten Parameterbudget arbeitet.
In umfangreichen Tests auf synthetischen Mehrfrequenz‑Zeitreihen zeigte das LPM stabile globale Dynamiken und erreichte Vorhersageleistungen, die mit herkömmlichen Self‑Attention‑Baselines vergleichbar sind. Die Ergebnisse legen eine klare Effizienz‑Leistungsgrenze nahe und demonstrieren, dass große Modelle für Zeitreihen durch geometrisch eingeschränkte Phasenrechnung und deterministische globale Kopplung skalierbar werden können.
Der Phasor‑Transformer eröffnet damit einen praktikablen Weg zu skalierbaren, temporalen Modellen in Bereichen mit oszillierenden Daten, ohne die Rechenkosten der klassischen Attention‑Mechanismen zu belasten.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.