Neues axiomatisches Modell klärt Grenzen von Gegenfaktischen Erklärungen
In einer wegweisenden Veröffentlichung präsentiert ein Team von Forschern ein umfassendes axiomatisches Rahmenwerk, das die Grundlagen von Gegenfaktischen Erklärungen neu definiert. Das Ziel ist klar: Vertrauen in autonome und intelligente Systeme zu stärken, indem die Art und Weise, wie Entscheidungen erklärt werden, systematisch verbessert wird.
Der Ansatz geht über die bisher üblichen lokalen Erklärungen hinaus und untersucht systematisch verschiedene Gegenfaktiktypen. Durch die Formulierung von Impossibility-Theoremen wird gezeigt, dass keine einzelne Erklärungsstrategie alle gewünschten Eigenschaften gleichzeitig erfüllen kann. Stattdessen werden sämtliche kompatiblen Kombinationen von Axiomen vollständig beschrieben.
Auf dieser Basis entstehen fünf eindeutig definierte Erklärungsfamilien, die jeweils einen eigenen Gegenfaktiktyp repräsentieren. Einige dieser Typen liefern lokale Einsichten, während andere globale Perspektiven eröffnen und damit das Gesamtverständnis des Entscheidungsprozesses erweitern. Das neue Taxonomie-Framework ordnet bestehende Erklärungswerkzeuge eindeutig ein, charakterisiert ihr Verhalten und beleuchtet die damit verbundene Rechenkomplexität.
Die Arbeit liefert damit nicht nur theoretische Klarheit, sondern auch praktische Leitlinien für die Entwicklung und Bewertung von Erklärungsmodellen in der KI-Forschung und -Anwendung.