ContextualSHAP: SHAP-Erklärungen mit KI-Texten verständlicher machen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Explainable Artificial Intelligence (XAI) gewinnt zunehmend an Bedeutung, wenn Machine‑Learning‑Modelle in Bereichen mit hohen Risiken eingesetzt werden. Unter den vielen XAI‑Methoden sticht SHAP (SHapley Additive exPlanations) hervor, weil es sowohl globale als auch lokale Erklärungen für verschiedenste Modelle liefern kann. Trotz seiner Stärke bei der Visualisierung von Feature‑Wichtigkeiten fehlt SHAP häufig kontextuelle Erklärungen, die für Anwender ohne technischen Hintergrund nachvollziehbar sind.

Um diese Lücke zu schließen, wurde die Python‑Bibliothek ContextualSHAP entwickelt. Sie erweitert SHAP um die Möglichkeit, mit einem großen Sprachmodell – konkret OpenAI’s GPT – kontextualisierte Text‑Erklärungen zu generieren. Durch benutzerdefinierte Parameter wie Feature‑Aliase, Beschreibungen und zusätzliche Hintergrundinformationen kann die Ausgabe sowohl an das Modell als auch an die Zielgruppe angepasst werden.

Die Wirksamkeit der neuen Bibliothek wurde in einer Fallstudie im Gesundheitswesen getestet. Nutzer*innen wurden mit Likert‑Skalen befragt und anschließend interviewt. Die Ergebnisse zeigten, dass die kombinierten visuellen und textbasierten Erklärungen als deutlich verständlicher und kontextuell relevanter wahrgenommen wurden als reine Visualisierungen.

Obwohl die Erkenntnisse noch vorläufig sind, deuten sie darauf hin, dass die Integration von Visualisierung und kontextualisiertem Text die Benutzerfreundlichkeit von SHAP‑Erklärungen erheblich steigern kann. Weitere Untersuchungen werden erwartet, um das Potenzial in unterschiedlichen Anwendungsbereichen zu prüfen.

Ähnliche Artikel