Aufgabenorientiertes Vorverarbeiten: Faire Untergeordnete Lernmodelle
Eine neue Arbeit, die auf arXiv veröffentlicht wurde, präsentiert einen innovativen Ansatz zur Förderung von Fairness in überwachten Lernaufgaben. Der Fokus liegt dabei auf der Vorverarbeitung von Daten, die speziell auf die jeweilige Lernaufgabe zugeschnitten ist.
Im Bereich des fairen maschinellen Lernens gibt es bislang zwei Hauptansätze: Datenfairness, die eine neutrale Verteilung über die Gruppen hinweg anstrebt, und task‑tailored Fairness, die die Lernaufgabe selbst in die Vorverarbeitung einbezieht. Die Autoren kritisieren, dass datenbasierte Methoden zu starke Regularisierung aus Sicht der HGR‑Korrelation aufweisen und dadurch die Leistungsfähigkeit der Modelle unnötig einschränken.
Auf dieser Basis entwickelt die Studie einen neuen Vorverarbeitungsmechanismus, der das Gleichgewicht zwischen Fairness und Nutzen optimiert. Der Ansatz berücksichtigt explizit die Anforderungen der nachfolgenden Lernmodelle und liefert theoretische Bedingungen, unter denen die Fairness verbessert und die Modellleistung erhalten bleibt.
Ein bislang unerforschter Aspekt ist die theoretische Garantie für die Fairness von beliebigen nachgelagerten überwachten Modellen, die auf die transformierten Daten trainiert werden. Die Autoren zeigen, dass ihre Methode unter bestimmten Voraussetzungen diese Garantie bietet.
Die Wirksamkeit des Frameworks wurde anhand von tabellarischen und Bilddatensätzen getestet. Die Vergleichsstudien demonstrieren, dass die task‑tailored Vorverarbeitung sowohl die Fairness als auch die Genauigkeit der Modelle signifikant steigert, ohne die Leistungsfähigkeit zu beeinträchtigen.