Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Feature Importance”
Forschung

Neue Feature‑Score‑Methoden nutzen Shapley‑Wert und Banzhaf‑Index <p>In der Welt der erklärbaren KI (XAI) sind spieltheoretische Feature‑Attributionen allgegenwärtig. Sie helfen dabei, die Entscheidungen von Machine‑Learning‑Modellen nachvollziehbar zu machen.</p> <p>Viele aktuelle Ansätze konzentrieren sich auf schwache abductive Erklärungen (WAXp) als Charakteristikwahrscheinlichkeit. Dabei werden jedoch nicht‑WAXp‑Sätze oft übersehen, obwohl sie wichtige Informationen enthalten können – insbesondere

arXiv – cs.AI