LLMs replizieren menschliche Bias – GPT-4 & GPT-5 im Entscheidungsdialog

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Eine neue Studie aus dem arXiv-Repository zeigt, dass große Sprachmodelle wie GPT-4 und GPT-5 menschliche Entscheidungsfehler mit hoher Genauigkeit nachahmen können. Die Forscher haben drei klassische Entscheidungsaufgaben in ein Chatbot-Format überführt und 1.100 Personen ein interaktives Experiment durchführen lassen.

Die Teilnehmer diskutierten ihre Entscheidungen in einfachen und komplexen Dialogen mit einem Chatbot, wodurch typische kognitive Verzerrungen – etwa der Bestätigungsfehler oder der Verfügbarkeitsheuristik – sichtbar wurden. Anschließend wurden die gleichen Szenarien mit GPT-4 und dem neueren GPT-5 simuliert, wobei die Modelle die Gesprächsverläufe und demografischen Daten der Probanden nutzten.

Die Ergebnisse sind beeindruckend: Beide Modelle reproduzierten die menschlichen Biases nahezu exakt und zeigten Unterschiede in der Art und Weise, wie sie die Entscheidungsdynamik abbilden. Diese Erkenntnisse sind entscheidend für die Entwicklung von KI-Systemen, die in interaktiven Umgebungen bias‑sensibel agieren sollen.

Ähnliche Artikel