MixDPO: Präferenzstärke modelliert – neue Methode für pluralistische Alignment
In einer wegweisenden Veröffentlichung präsentiert das Forschungsteam die Mixed Logit Direct Preference Optimization (MixDPO), eine Weiterentwicklung des Direct Preference Optimization (DPO). MixDPO berücksichtigt, dass menschliche Präferenzen nicht gleich stark ausgedrückt werden – ein Phänomen, das in der Verhaltensökonomie und der diskreten Wahltheorie gut dokumentiert ist. Durch die Einbindung einer Mixed-Logit-Struktur kann die Methode die individuelle Stärke von Präferenzen explizit modellieren und so heterogene menschliche Urteile besser erfassen.