Optimierung der Trainingsdaten: Datensatz‑Mischung für Zeitreihenprognosen
In der Welt des Deep Learning gilt die alte Regel: Je mehr Daten, desto besser. Doch bei Sensor‑Streams ist das nicht immer so. Oft sind die Daten unausgewogen und enthalten viel Redundanz, sodass nicht jeder Datenpunkt gleichwertig zur Modellverbesserung beiträgt.
Das neue Verfahren von Forschern auf arXiv 2512.11546v1 stellt dieses Paradigma in Frage. Statt die Hyperparameter des Modells zu verändern, bleibt das Modell konstant und die Zusammensetzung der Trainingsdaten wird optimiert. Der Ansatz nennt man „Training‑Diet“ – ein gezielter Mix aus den wichtigsten Datenbestandteilen.
Der Prozess beginnt mit einem großen Encoder, der die Rohdaten in ein hochdimensionales Feature‑Raum überführt. Anschließend werden die Daten mit k‑Means in mehrere, verhaltenskonforme Cluster aufgeteilt. Diese Cluster bilden die Grundzutaten für das Training.
Im nächsten Schritt nutzt das Team Optuna, ein leistungsfähiges Optimierungsframework, um die optimale Mischverteilung der Cluster zu finden. Für jeden Versuch legt Optuna ein spezifisches Sampling‑Verhältnis fest, ein neues Trainingsset wird zusammengestellt und ein kleines Modell trainiert. Das Ergebnis wird anschließend bewertet.
Die Experimente zeigen, dass dieser datenzentrierte Ansatz konsequent bessere Modelle liefert als die herkömmliche Methode, die das gesamte Datenset nutzt. Auf dem PMSM‑Datensatz verbesserte sich die mittlere quadratische Fehler‑Metrik von 1,70 auf 1,37 – ein Gewinn von 19,41 %.
Damit demonstriert die Studie, dass „weniger manchmal mehr“ sein kann: Durch die gezielte Auswahl der wichtigsten Datenpunkte kann die Leistung von Zeitreihenprognosen signifikant gesteigert werden.