Wie Unsicherheit in ML die Robustheit von Gegenfaktischen Erklärungen beeinflusst
Künstliche Intelligenz liefert immer mehr Erklärungen zu ihren Entscheidungen. Gegenfaktische Erklärungen, die minimale Änderungen an Eingabedaten beschreiben, die das Ergebnis eines Modells verändern, sind dabei besonders beliebt. Doch die meisten Verfahren wurden bislang nicht darauf geprüft, wie sie unter Unsicherheit in Modellen und Daten funktionieren.