CC-Time: Sprachmodelle revolutionieren Zeitreihen‑Vorhersagen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die jüngsten Fortschritte bei vortrainierten Sprachmodellen (PLMs) haben die Welt der Zeitreihen‑Vorhersage (TSF) neu belebt. Trotz ihrer beeindruckenden Fähigkeiten in der Sprachverarbeitung liefern PLM‑basierte TSF‑Methoden bislang noch nicht die gewünschte Genauigkeit. Das neue Verfahren CC‑Time löst dieses Problem, indem es zwei innovative Ansätze kombiniert.

Erstens nutzt CC‑Time Cross‑Modality‑Learning: Es integriert nicht nur die numerischen Zeitreihen, sondern auch ihre begleitenden Textbeschreibungen, um zeitliche Abhängigkeiten und Kanal‑Korrelationen direkt im Sprachmodell abzubilden. Zweitens führt es ein Cross‑Model‑Fusion‑Block ein, der das Wissen aus dem PLM und einem klassischen Zeitreihenmodell adaptiv zusammenführt. So entsteht ein umfassenderes Modell, das die Stärken beider Ansätze vereint.

Die umfangreichen Experimente auf neun realen Datensätzen zeigen, dass CC‑Time sowohl bei vollem Datensatztraining als auch bei wenigen Beispielen die bisher beste Vorhersagegenauigkeit erzielt. Damit setzt das Verfahren einen neuen Standard für die Zeitreihen‑Vorhersage und eröffnet spannende Perspektiven für die Anwendung von Sprachmodellen in der Datenanalyse.

Ähnliche Artikel