Neuer Ansatz zur Feature‑Bedeutung: Counterfactual Importance Distribution (CID)
In der Welt des maschinellen Lernens ist es entscheidend, die Bedeutung einzelner Merkmale zu verstehen, um die Entscheidungsprozesse von Modellen nachvollziehen zu können. Trotz zahlreicher vorhandener Methoden fehlt bislang ein eindeutiges Referenzmaß, das als Vergleichsgrundlage dienen könnte. Der neue Ansatz Counterfactual Importance Distribution (CID) bietet hierfür eine solide Alternative.