LLM-gesteuerte Diffusion verbessert Zeitreihen‑Vorhersagen bei wenigen Daten
In vielen Fachbereichen stehen Zeitreihenanalysen vor dem Problem knapper Daten. Traditionelle Modelle benötigen große Datensätze, um die zugrunde liegenden zeitlichen Dynamiken zuverlässig zu erfassen. Ein neues Verfahren namens LTSM‑DIFF (Large‑scale Temporal Sequential Memory with Diffusion) kombiniert die Ausdruckskraft großer Sprachmodelle mit der generativen Kraft von Diffusionsmodellen, um dieses Problem zu lösen.
Der Kern von LTSM‑DIFF ist ein feinabgestimmtes LTSM‑Modul, das als temporärer Speicher fungiert und selbst bei wenigen Beobachtungen reichhaltige sequentielle Repräsentationen erzeugt. Diese Repräsentationen dienen als bedingte Anleitung für einen gemeinsamen Wahrscheinlichkeits‑Diffusionsprozess, der komplexe zeitliche Muster präziser modelliert. Durch die Übertragung von Wissen aus dem Sprachbereich auf Zeitreihenaufgaben wird die Generalisierung und Robustheit deutlich gesteigert.
Umfangreiche Experimente an unterschiedlichen Benchmarks zeigen, dass LTSM‑DIFF in datenreichen Szenarien den aktuellen Stand der Technik übertrifft und gleichzeitig signifikante Verbesserungen bei wenigen Daten liefert. Das Ergebnis ist ein neues Paradigma für die Analyse von Zeitreihen unter Datenknappheit, das sowohl die Genauigkeit als auch die Zuverlässigkeit von Vorhersagen nachhaltig erhöht.