Wie Unsicherheit in ML die Robustheit von Gegenfaktischen Erklärungen beeinflusst
Künstliche Intelligenz liefert immer mehr Erklärungen zu ihren Entscheidungen. Gegenfaktische Erklärungen, die minimale Änderungen an Eingabedaten beschreiben, die das Ergebnis eines Modells verändern, sind dabei besonders beliebt. Doch die meisten Verfahren wurden bislang nicht darauf geprüft, wie sie unter Unsicherheit in Modellen und Daten funktionieren.
In einer neuen Studie von ArXiv (2602.00063v1) wird die Robustheit von gängigen Kombinationen aus ML-Modellen und Gegenfaktikalgorithmen unter Berücksichtigung von aleatorischer und epistemischer Unsicherheit untersucht. Durch Experimente an synthetischen und realen tabellarischen Datensätzen zeigt die Arbeit, dass selbst geringe Abnahmen der Modellgenauigkeit – etwa durch erhöhten Rauschen oder begrenzte Daten – zu erheblichen Schwankungen der erzeugten Gegenfaktiken führen können.
Diese Ergebnisse verdeutlichen, dass erklärungsfähige KI in Bereichen wie Finanzen oder Sozialwissenschaften auf Unsicherheitsbewusstsein angewiesen ist.