Mitigating Cultural Bias in LLMs via Multi-Agent Cultural Debate

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Neues Forschungsergebnis zeigt, dass große Sprachmodelle (LLMs) systematisch einen westlich‑zentrierten Bias aufweisen. Ein Versuch, diesen Bias durch Prompting in nicht‑westlichen Sprachen wie Chinesisch zu mildern, hat sich bislang als wenig wirksam erwiesen – die Modelle verschieben die Voreingenommenheit lediglich in Richtung ostasiatischer Perspektiven.

Um das Problem gezielt anzugehen, stellen die Autoren das CEBiasBench vor, ein zweisprachiges (Chinesisch–Englisch) Benchmark‑Set, sowie den Multi‑Agent Vote (MAV), ein Verfahren, das explizit auch eine „keine‑Bias“-Option zulässt. Mit diesem Rahmen konnten sie zeigen, dass chinesische Prompting‑Strategien den Bias nicht eliminieren, sondern lediglich verschieben.

Die eigentliche Lösung ist das Multi‑Agent Cultural Debate (MACD), ein trainingsfreies Framework, das Agenten mit klar definierten kulturellen Personas ausstattet und deren Debatte über die Strategie „Seeking Common Ground while Reserving Differences“ steuert. Durch diese explizite kulturelle Repräsentation gelingt es MACD, die Voreingenommenheit signifikant zu reduzieren.

In Experimenten erzielte MACD einen durchschnittlichen No‑Bias‑Rate von 57,6 % laut LLM‑Bewertung und beeindruckende 86,0 % nach MAV‑Bewertung – deutlich höher als die 47,6 % bzw. 69,0 % des Baseline‑Modells mit GPT‑4o. Darüber hinaus zeigte MACD eine gute Generalisierung auf den arabischen CAMeL‑Benchmark, was die Bedeutung kultureller Vielfalt in Agenten‑Frameworks für faire KI‑Modelle unterstreicht.

Ähnliche Artikel