XAI-Tests: Warum aktuelle Bewertungskriterien oft irreführend sind
Erklärbare Künstliche Intelligenz (XAI) soll die Transparenz moderner Modelle erhöhen, indem sie Nutzern verständliche Erklärungen liefert. In der Forschung gibt es jedoch keine einheitlichen Standards, um die Qualität dieser Erklärungen zu beurteilen. Häufig werden ad-hoc-Methoden wie einfache Befragungen eingesetzt, bei denen Nutzer die Modelle mit und ohne Erklärungen vergleichen.