IdealTSF: Nicht-ideale Daten steigern die Genauigkeit von Zeitreihenprognosen
Deep‑Learning‑Modelle haben in den letzten Jahren enorme Fortschritte bei der Vorhersage von Zeitreihen erzielt. Dennoch bleiben Probleme wie fehlende Werte, Ausreißer und andere Datenqualitätsprobleme ein Hindernis für die Weiterentwicklung dieser Techniken.
Frühere Studien konzentrierten sich vor allem darauf, aus Sequenzdaten positive Merkmale zu extrahieren oder suboptimale Daten als Lernmaterial für Transfer‑Learning zu nutzen. Der neue Ansatz von IdealTSF nutzt hingegen gezielt die sogenannten „nicht‑idealen“ (negative) Daten, um die Modellleistung zu steigern.
IdealTSF besteht aus drei aufeinanderfolgenden Phasen: Erst wird das Modell mit Wissen aus den negativen Samples vortrainiert. Anschließend werden die Sequenzen während des Trainings in ideale positive Samples umgewandelt. Abschließend kommt ein negativer Optimierungsmechanismus mit adversarialen Störungen zum Einsatz, um die Robustheit weiter zu erhöhen.
Umfangreiche Experimente zeigen, dass die Einbindung von negativen Samples das Potenzial der Basis‑Attention‑Architektur für Zeitreihenprognosen erheblich entfaltet. Besonders in Anwendungen mit verrauschten oder qualitativ minderwertigen Daten liefert IdealTSF signifikante Verbesserungen in der Vorhersagegenauigkeit.