TabPFN revolutioniert Shapley-Werte: Schneller, genauer, ohne Retraining

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Shapley-Werte sind ein zentraler Bestandteil erklärbarer KI, doch ihre Berechnung ist besonders bei abhängigen Merkmalen rechenintensiv. Traditionell erfordert die Abschätzung vieler bedingter Erwartungen Monte-Carlo-Integration oder Regressionsmodelle, wobei letztere für jedes bedingte Erwartungsmaß neu trainiert werden müssen – ein Prozess, der viel Zeit kostet.

Tabular Foundation Models wie TabPFN lösen dieses Problem, indem sie In-Context-Learning nutzen. Dadurch kann jede bedingte Erwartung ohne erneutes Training approximiert werden. In der vorliegenden Studie wurden verschiedene Varianten von TabPFN eingesetzt, um Shapley-Werte zu berechnen, und die Ergebnisse wurden mit führenden Methoden auf simulierten und realen Datensätzen verglichen.

Die Ergebnisse zeigen, dass TabPFN in den meisten Fällen die beste Leistung erzielt. Wo es nicht ganz die Spitzenposition erreicht, liegt die Differenz nur geringfügig hinter dem besten Verfahren, während die Laufzeit deutlich reduziert wird. Die Autoren diskutieren zudem mögliche Verbesserungen und Wege, Tabular Foundation Models gezielt für die Schätzung bedingter Shapley-Werte zu optimieren.

Ähnliche Artikel