Fairness-Optimierung verändert Erklärungen von ML-Modellen im Gesundheitswesen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Ein neues arXiv‑Paper zeigt, dass die Einführung von Fairness‑Constraints in maschinellen Lernmodellen nicht nur die Genauigkeit, sondern auch die Erklärbarkeit der Vorhersagen beeinflusst. Die Autoren untersuchten, wie Bias‑Mitigation‑Techniken die Shapley‑basierten Feature‑Rankings verändern, und fanden signifikante Änderungen in der Wichtigkeit einzelner Merkmale.

Die Studie analysierte drei medizinische Datensätze: das Risiko von Harnwegsinfektionen bei Kindern, das Blutungsrisiko bei Patienten mit direkten Antikoagulanzien und die Rückfallwahrscheinlichkeit bei Straftätern. In allen Fällen führte die Erhöhung der Fairness gegenüber rassischen Untergruppen zu einer Neuausrichtung der Feature‑Prioritäten, wobei die Rangfolge je nach Gruppe unterschiedlich ausfiel.

Zusätzlich wurden verschiedene Modellklassen auf die Stabilität ihrer Shapley‑Rankings hin geprüft. Die Ergebnisse unterstreichen, dass Genauigkeit, Fairness und Erklärbarkeit nicht isoliert betrachtet werden dürfen, sondern gemeinsam in die Bewertung von Modellen einbezogen werden müssen, um klinisches Vertrauen zu gewährleisten.

Ähnliche Artikel