LIME und SHAP erklären Zeitreihen‑Vorhersagen – Fallstudie mit Air Passengers
In der heutigen datengetriebenen Welt entscheiden sich Branchen wie Luftfahrt, Energie, Einzelhandel und Gesundheitswesen zunehmend auf Zeitreihenprognosen. Klassische ARIMA‑Modelle bieten zwar klare Interpretationen über ihre Koeffizienten, stoßen jedoch an ihre Grenzen, wenn nichtlineare Muster auftreten. Im Gegensatz dazu liefern moderne, baumbasierte Machine‑Learning‑Modelle wie XGBoost beeindruckende Genauigkeit, bleiben aber oft als „Black‑Box“ unsichtbar.
Eine neue Studie präsentiert einen einheitlichen Ansatz, um die Vorhersagen solcher Modelle transparent zu machen. Durch die Anwendung der lokalen, modellunabhängigen Erklärungen LIME und der SHAP‑Werte wird die Vorhersagekraft von Zeitreihen in verständliche, erklärbare Komponenten zerlegt. Der Schlüssel liegt darin, die ein‑dimensionalen Daten in ein leckage‑freies, überwachtes Lernproblem zu überführen, ein Gradient‑Boosted‑Tree‑Modell sowie ein ARIMA‑Baseline zu trainieren und anschließend die Erklärungen anzuwenden.
Die Fallstudie nutzt das bekannte Air Passengers‑Dataset. Sie zeigt, dass ein kleiner Satz von verzögerten Merkmalen – insbesondere der zwölfmonatige Lag – zusammen mit saisonalen Encodings den Großteil der Vorhersagevarianz erklären kann. Damit wird deutlich, welche historischen Informationen für die Prognose entscheidend sind.
Die Autoren liefern vier zentrale Beiträge: Erstens ein Verfahren, LIME und SHAP ohne Zeitverzerrung auf Zeitreihen anzuwenden. Zweitens eine theoretische Erläuterung der zugrunde liegenden Algorithmen. Drittens eine umfangreiche empirische Bewertung mit detaillierter Analyse. Und vierthens praxisnahe Leitlinien für Fachleute, die erklärbare Zeitreihenmodelle einsetzen wollen.