KI-Modelle zeigen regionalen Bias – Studie deckt große Unterschiede auf
Eine neue Untersuchung aus dem arXiv-Repository beleuchtet, wie stark große Sprachmodelle (LLMs) regionale Vorlieben aufweisen. Das Thema gewinnt an Bedeutung, weil Bias in KI‑Systemen die Fairness und die globale Repräsentation von Informationen gefährden kann.
Die Forscher haben zehn prominente LLMs – darunter GPT‑3.5, GPT‑4o, Gemini‑1.5 Flash, Gemini‑1.0 Pro, Claude‑3 Opus, Claude‑3.5 Sonnet, Llama‑3, Gemma‑7B, Mistral‑7B und Vicuna‑13B – anhand von 100 gezielt entwickelten Prompts getestet. Dabei wurden Entscheidungen zwischen Regionen in neutralen Kontexten erfragt. Zur Messung des Bias wurde das neue Prompt‑basierte Framework FAZE eingesetzt, das Bias auf einer Skala von 0 bis 10 bewertet, wobei höhere Werte auf stärkere regionale Präferenzen hinweisen.
Die Ergebnisse zeigen deutliche Unterschiede: GPT‑3.5 erzielte den höchsten Bias‑Score von 9,5, während Claude‑3.5 Sonnet mit 2,5 am niedrigsten abschneidet. Die Varianz zwischen den Modellen unterstreicht, dass regionale Verzerrungen nicht einheitlich sind und von Modell zu Modell stark variieren können. Solche Bias‑Tendenzen können die Zuverlässigkeit, Fairness und Inklusivität von LLM‑Ausgaben in realen, kulturübergreifenden Anwendungen erheblich beeinträchtigen.
Die Studie liefert einen wichtigen Beitrag zur Forschung im Bereich KI‑Fairness, indem sie ein inklusives Evaluationsframework vorstellt und systematische Ansätze zur Identifizierung und Minderung geografischer Bias aufzeigt. Damit wird ein entscheidender Schritt unternommen, um Sprachmodelle gerechter und vertrauenswürdiger zu machen.