FAIRPLAI: Menschliche Kontrolle für faire und private KI
Mit dem Aufstieg von maschinellem Lernen in Bereichen wie Gesundheitsversorgung, Finanzwesen, Personalentscheidungen und öffentlichen Dienstleistungen wird die Verantwortung für Entscheidungen, die Menschen direkt betreffen, immer größer. Genauigkeit allein reicht hier nicht aus – Modelle müssen zudem gerecht gegenüber verschiedenen Gruppen sein, die Privatsphäre einzelner Personen schützen und für Stakeholder nachvollziehbar bleiben.
FAIRPLAI (Fair and Private Learning with Active Human Influence) bietet einen praxisnahen Ansatz, um diese drei Anforderungen gleichzeitig zu erfüllen. Das System arbeitet in drei Schritten:
1. Es erstellt transparente „Privacy‑Fairness‑Frontiers“, die die Abwägungen zwischen Genauigkeit, Datenschutzgarantien und Gruppenergebnissen sichtbar machen.
2. Es ermöglicht interaktive Eingaben von Entscheidungsträgern, sodass Fairness-Kriterien und optimale Einsatzpunkte an die spezifischen Bedürfnisse des jeweiligen Anwendungsbereichs angepasst werden können.
3. Es integriert einen differenziell privaten Auditing‑Loop, der es Menschen erlaubt, Erklärungen und Grenzfälle zu prüfen, ohne die Sicherheit einzelner Daten zu gefährden.
In Tests mit Standard-Datensätzen hat FAIRPLAI gezeigt, dass es starke Datenschutzmaßnahmen beibehalten kann, während gleichzeitig die Fairness‑Unterschiede im Vergleich zu automatisierten Baselines reduziert werden. Der Ansatz liefert zudem einen klaren, nachvollziehbaren Prozess, den Fachleute ohne tiefgreifende technische Kenntnisse anwenden können.