LLMs aus China und USA zeigen überraschend amerikanische Werte

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Eine neue Studie aus dem arXiv-Repository (ArXiv:2512.13723v1) hat ergeben, dass große Sprachmodelle, die in China und den USA entwickelt wurden, bei der Beantwortung von Fragen zu Moral und Weltwerten deutlich eher amerikanische Perspektiven widerspiegeln als chinesische. Die Forscher haben zehn chinesische und zehn amerikanische Modelle mit dem Moral Foundations Questionnaire 2.0 sowie dem World Values Survey getestet und die Ergebnisse mit Tausenden von Menschen aus beiden Ländern verglichen.

Erstaunlicherweise zeigen alle Modelle – unabhängig davon, ob sie in chinesischer Sprache oder mit einer chinesischen Persona angesprochen werden – ein starkes Bias in Richtung der Werte, die in den USA vorherrschend sind. Der Einfluss der Sprache oder der kulturellen Identität des Modells konnte die Tendenz nur geringfügig abschwächen.

Diese Befunde sind besonders relevant, da Sprachmodelle zunehmend als Informationsquelle und Entscheidungshelfer fungieren. Wenn die Modelle die Werte einer einzigen Kultur dominieren, könnte das die geopolitische Einflussnahme und die globale Wahrnehmung von Normen und Moral nachhaltig verändern. Die Ergebnisse legen nahe, dass Entwickler und Regulierungsbehörden die kulturelle Ausrichtung von KI-Systemen stärker berücksichtigen müssen, um eine ausgewogene und faire Informationsverbreitung zu gewährleisten.

Ähnliche Artikel