TiCT: Das neue synthetisch vortrainierte Modell für Zeitreihenklassifikation

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In einer Welt, in der Zeitreihen-Daten allgegenwärtig sind, wächst die Nachfrage nach universellen Basismodellen, die ohne umfangreiche Beschriftungen funktionieren. Das neue Modell TiCT (Time-series in-Context Transformer) löst dieses Problem, indem es ausschließlich auf synthetischen Daten vortrainiert wird und damit in der Lage ist, Klassifikationsaufgaben mit nur wenigen Beispielen zu bewältigen.

TiCT kombiniert zwei bahnbrechende Innovationen: Erstens eine skalierbare, bitbasierte Label‑Kodierung zusammen mit einer speziellen Output‑Attention‑Mechanik, die es dem Modell ermöglicht, beliebig viele Klassen zu handhaben. Zweitens ein synthetisches Pre‑Training‑Framework, das Mixup‑ähnliche Verfahren mit Datenaugmentation verknüpft, um die Generalisierung und Rauschunempfindlichkeit zu erhöhen.

Die umfangreichen Tests auf dem UCR‑Archive zeigen, dass TiCT die Leistung der führenden überwachten Methoden erreicht – und das ausschließlich durch In‑Context‑Beispiele während der Inferenz, ohne dass ein einziges Modellgewicht angepasst werden muss. Damit eröffnet TiCT einen neuen Ansatz für effiziente, fehlerfreie Zeitreihenklassifikation.

Ähnliche Artikel