DCFO: Gegenfaktische Erklärungen für LOF‑Outlier‑Detection

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Ein neues arXiv‑Veröffentlichung (ArXiv:2512.10659v1) stellt die Methode Density‑based Counterfactuals for Outliers (DCFO) vor, die speziell für die weit verbreitete LOF‑Methode entwickelt wurde.

Outlier‑Detection ist ein zentrales Werkzeug, um Datenpunkte zu identifizieren, die deutlich von der Hauptverteilung abweichen. Doch ohne nachvollziehbare Erklärungen bleiben die Gründe für solche Ausreißer und mögliche Fehlerquellen im Dunkeln.

Gegenfaktische Erklärungen zeigen, welche minimalen Änderungen an einem Datenpunkt nötig wären, um die Klassifikation als Ausreißer zu verhindern. Diese Art von Analyse ist besonders wertvoll, um präventive Maßnahmen zu entwickeln und Bias zu erkennen.

Der Local Outlier Factor (LOF) ist ein beliebtes, unüberwachtes Verfahren, das Ausreißer anhand relativer lokaler Dichten bestimmt. Trotz seiner Popularität fehlt LOF jedoch an Interpretierbarkeit, was die praktische Anwendung einschränkt.

DCFO löst dieses Problem, indem es den Datenraum in Regionen unterteilt, in denen LOF sich glatt verhält. Diese Partitionierung ermöglicht eine effiziente, gradientenbasierte Optimierung, um Gegenfaktische Erklärungen zu generieren.

In umfangreichen Experimenten auf 50 OpenML‑Datensätzen hat DCFO konsequent die Konkurrenz übertroffen. Die erzeugten Gegenfaktischen Erklärungen weisen eine höhere Nähe zum Originaldatensatz und eine bessere Validität auf.

Die Veröffentlichung unterstreicht, wie gezielte Erklärungsansätze die Transparenz von Outlier‑Detection-Algorithmen verbessern und gleichzeitig praktische Einblicke für die Datenanalyse liefern können.

Ähnliche Artikel