SHAP‑Erklärungen enthüllen, wie Anomalie‑Erkennungs‑Ensembles besser funktionieren
Unüberwachtes Anomalie‑Detektieren bleibt ein hartes Problem, weil Datenverteilungen so unterschiedlich sind und es kaum Labels gibt. Um diesen Schwierigkeiten zu begegnen, setzen viele Forscher auf Ensemble‑Methoden, die mehrere Detektoren kombinieren, um individuelle Verzerrungen zu reduzieren und die Robustheit zu erhöhen.
Doch ein wirklich ergänzendes Ensemble zu bauen, ist nicht einfach. Viele Detektoren greifen auf ähnliche Entscheidungssignale zurück und liefern dadurch redundante Anomalie‑Scores. Die neue Studie zeigt, wie man diese Problematik mit SHAP‑Erklärungen – einer Technik, die die Wichtigkeit einzelner Eingabefeatures quantifiziert – lösen kann.
Durch die Analyse der SHAP‑Profile lässt sich die Ähnlichkeit zwischen Detektoren messen: Detektoren mit ähnlichen Erklärungen erzeugen korrelierte Scores und identifizieren meist die gleichen Anomalien. Im Gegensatz dazu weist ein divergentes Erklärungsprofil zuverlässig auf komplementäres Verhalten hin. Damit liefert ein erklärungsbasiertes Maß ein völlig neues Kriterium zur Auswahl von Modellen für ein Ensemble.
Die Autoren betonen jedoch, dass Vielfalt allein nicht reicht. Ein Ensemble kann nur dann stark sein, wenn die einzelnen Modelle auch hohe Leistungen erbringen. Indem man gezielt Erklärungsdiversität anstrebt und gleichzeitig die Modellqualität beibehält, lassen sich Ensembles konstruieren, die deutlich bessere Ergebnisse liefern als herkömmliche Ansätze.