STPFormer: Neuer Transformer für Verkehrsprognosen mit Mustererkennung

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die Vorhersage von Verkehrsflüssen in Raum und Zeit ist ein komplexes Problem, das durch vielfältige zeitliche Muster, dynamische räumliche Strukturen und unterschiedliche Eingabeformate erschwert wird. Transformer‑basierte Modelle bieten zwar ein starkes globales Modellierungsvermögen, stoßen jedoch häufig an ihre Grenzen, wenn es um starre zeitliche Codierung und eine schwache Raum‑Zeit‑Fusion geht.

Mit STPFormer – einem spatio‑temporalen, pattern‑aware Transformer – wird dieses Problem neu definiert. Das Modell kombiniert vier innovative Module, die gemeinsam eine einheitliche und zugleich interpretierbare Repräsentations­lern­architektur schaffen:

  • Temporal Position Aggregator (TPA) für Muster‑bewusste Zeitcodierung
  • Spatial Sequence Aggregator (SSA) zur sequentiellen räumlichen Lern­fähigkeit
  • Spatial‑Temporal Graph Matching (STGM) für die Ausrichtung von Domänen über Raum und Zeit hinweg
  • Attention Mixer zur mehr‑skaligen Fusion von Informationen

Durch die Kombination dieser Komponenten erreicht STPFormer einen neuen Stand der Technik. In Experimenten mit fünf realen Datensätzen übertraf das Modell bestehende Ansätze konsequent und erzielte dabei konsistente SOTA‑Ergebnisse. Ablationsstudien und Visualisierungen belegen die Wirksamkeit und die breite Anwendbarkeit des Modells.

Ähnliche Artikel