RealAC: Realistische, umsetzbare Gegenfaktische Erklärungen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die neue Methode RealAC setzt neue Maßstäbe für Gegenfaktische Erklärungen in der KI. Sie liefert nachvollziehbare, realistische Änderungen an Eingabedaten, die die Vorhersage eines Modells verändern, ohne dabei die zugrunde liegende Datenverteilung zu verletzen.

Im Gegensatz zu bisherigen Ansätzen, die auf starre, handgefertigte Einschränkungen oder domänenspezifisches Wissen angewiesen sind, arbeitet RealAC ohne explizite Fachkenntnisse. Durch die Ausrichtung der gemeinsamen Verteilungen von Feature‑Paaren zwischen Fakten‑ und Gegenfaktischen Instanzen werden komplexe, nichtlineare Abhängigkeiten automatisch erhalten.

Ein weiteres Highlight ist die Möglichkeit für Anwender, Attribute zu „einfrieren“, die nicht verändert werden dürfen. Diese Flexibilität sorgt dafür, dass die vorgeschlagenen Erklärungen nicht nur theoretisch sinnvoll, sondern auch praktisch umsetzbar sind.

Tests auf drei synthetischen und zwei realen Datensätzen zeigen, dass RealAC die Realitäts‑ und Handlungsfähigkeit von Gegenfaktischen Erklärungen deutlich verbessert. Im Vergleich zu führenden Baselines und LLM‑basierten Methoden erzielt es höhere Werte bei Kausalitäts‑ und Abhängigkeits‑Scores sowie bei der Realitätsmetrik IM1.

Ähnliche Artikel