Spectral Generative Flow Models: Physikbasierte Alternative zu Transformers
In einer wegweisenden Veröffentlichung auf arXiv wird die neue Klasse der Spectral Generative Flow Models (SGFMs) vorgestellt, die Transformer‑basierte Sprachmodelle durch einen physikinspirierten Ansatz ersetzt. Anstatt Texte oder Videos als diskrete Token‑Sequenzen zu verarbeiten, modellieren SGFMs die Erzeugung als kontinuierliche Feldentwicklung, die von stochastischen Dynamiken in einer mehrskalierten Wavelet‑Basis bestimmt wird.
Durch die Ersetzung globaler Aufmerksamkeitsmechanismen mit lokalen Operatoren, spektralen Projektionen und Navier–Stokes‑ähnlichem Transport entsteht ein generatives Verfahren, das auf Kontinuität, Geometrie und physikalischer Struktur beruht. Die Architektur bietet drei zentrale Innovationen: eine feldtheoretische Ontologie, die Text und Video als Trajektorien einer stochastischen partiellen Differentialgleichung vereint; eine Wavelet‑Domänenrepräsentation, die Sparsität, Skalentrennung und Recheneffizienz fördert; sowie einen konformen stochastischen Fluss, der Stabilität, Kohärenz und Unsicherheitspropagation sicherstellt.
Diese Kombination ermöglicht ein generatives Modell, das weit über autoregressive und Diffusionsansätze hinausgeht und langfristige Kohärenz, multimodale Generalität sowie einen physikalisch strukturierten Induktionsbias für die nächste Generation von KI‑Systemen bietet.