SHLIME: Schutz vor feindlichen Angriffen auf SHAP und LIME
In einer aktuellen Studie wird gezeigt, dass die beliebten Post‑hoc‑Erklärungswerkzeuge LIME und SHAP – die häufig zur Aufdeckung von Bias in Black‑Box‑Modellen eingesetzt werden – anfällig für gezielte Angriffe sind. Durch gezielte Manipulationen können diese Methoden täuschend echte, aber irreführende Interpretationen liefern, die versteckte Vorurteile verbergen.
Die Forscher bauen auf den Erkenntnissen von Slack et al. (2020) auf und untersuchen systematisch, wie stark LIME und SHAP gegenüber feindlichen Eingriffen leiden. Dazu replizieren sie zunächst das bekannte COMPAS‑Experiment, um die ursprünglichen Befunde zu bestätigen und eine Basislinie zu schaffen.
Ein zentraler Beitrag der Arbeit ist die Entwicklung eines modularen Testframeworks, das es ermöglicht, verschiedene Erweiterungen und Ensemble‑Ansätze für LIME/SHAP gezielt zu prüfen. Mit diesem Rahmen werden mehrere Ensemble‑Konfigurationen auf Modellen mit unterschiedlicher Leistungsfähigkeit getestet, die außerhalb des Trainingsdatensatzes liegen.
Die Ergebnisse zeigen, dass bestimmte Ensemble‑Setups die Erkennung von Bias deutlich verbessern. Diese robusteren Varianten bieten ein vielversprechendes Mittel, um die Transparenz und Vertrauenswürdigkeit von hochriskanten Machine‑Learning‑Systemen zu erhöhen.