STELLA: LLMs für Zeitreihenprognosen dank semantischer Abstraktionen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die neue Methode STELLA (Semantic‑Temporal Alignment with Language Abstractions) nutzt große Sprachmodelle, um Zeitreihen präziser vorherzusagen. Im Gegensatz zu bisherigen Ansätzen, die lediglich statische Korrelationen nutzen, extrahiert STELLA dynamische Informationen aus den Rohdaten und setzt sie gezielt ein.

STELLA zerlegt jede Zeitreihe in Trend, Saisonalität und Residuum und wandelt diese Bestandteile in hierarchische semantische Anker um. Der Corpus‑level Semantic Prior (CSP) liefert globale Kontextinformationen, während der Fine‑grained Behavioral Prompt (FBP) spezifische Muster einzelner Instanzen hervorhebt. Diese Anker dienen als Präfix‑Prompts, die das Sprachmodell anleiten, die inhärente Dynamik der Daten zu modellieren.

In umfangreichen Tests auf acht Benchmark‑Datensätzen übertrifft STELLA aktuelle Spitzenmethoden sowohl bei Kurz‑ als auch bei Langzeitprognosen. Besonders beeindruckend sind die Leistungen in Zero‑Shot‑ und Few‑Shot‑Szenarien, die die starke Generalisierungsfähigkeit des Ansatzes unterstreichen. Ablationsstudien bestätigen, dass die dynamisch generierten semantischen Anker entscheidend zum Erfolg beitragen.

STELLA zeigt, dass die Kombination aus semantischer Abstraktion und Sprachmodell‑Prompting ein vielversprechender Weg ist, um Zeitreihenprognosen zu verbessern und die Potenziale von LLMs in der Datenanalyse voll auszuschöpfen.

Ähnliche Artikel