ContextualSHAP: SHAP-Erklärungen mit KI-Texten verständlicher machen
Explainable Artificial Intelligence (XAI) gewinnt zunehmend an Bedeutung, wenn Machine‑Learning‑Modelle in Bereichen mit hohen Risiken eingesetzt werden. Unter den vielen XAI‑Methoden sticht SHAP (SHapley Additive exPlanations) hervor, weil es sowohl globale als auch lokale Erklärungen für verschiedenste Modelle liefern kann. Trotz seiner Stärke bei der Visualisierung von Feature‑Wichtigkeiten fehlt SHAP häufig kontextuelle Erklärungen, die für Anwender ohne technischen Hintergrund nachvollziehbar sind.