LLMs vertrauen Menschen mehr als anderen Modellen – Expertenpräferenz bestätigt
Eine neue Studie aus dem arXiv-Repository zeigt, dass moderne Sprachmodelle (LLMs) menschliche Experten stärker berücksichtigen als die Antworten anderer Modelle. In drei Entscheidungsaufgaben – Leseverständnis, mehrstu…
- Eine neue Studie aus dem arXiv-Repository zeigt, dass moderne Sprachmodelle (LLMs) menschliche Experten stärker berücksichtigen als die Antworten anderer Modelle.
- In drei Entscheidungsaufgaben – Leseverständnis, mehrstufiges Denken und moralische Urteilsbildung – wurden vier speziell trainierte LLMs mit vorab gelieferten Antworten…
- Die Forscher spielten die Richtigkeit der Gruppenantworten sowie die Gruppengröße ein und führten zusätzlich ein Experiment mit direktem Widerspruch zwischen einer einze…
Eine neue Studie aus dem arXiv-Repository zeigt, dass moderne Sprachmodelle (LLMs) menschliche Experten stärker berücksichtigen als die Antworten anderer Modelle. In drei Entscheidungsaufgaben – Leseverständnis, mehrstufiges Denken und moralische Urteilsbildung – wurden vier speziell trainierte LLMs mit vorab gelieferten Antworten konfrontiert, die als von Freunden, menschlichen Experten oder anderen LLMs gekennzeichnet waren.
Die Forscher spielten die Richtigkeit der Gruppenantworten sowie die Gruppengröße ein und führten zusätzlich ein Experiment mit direktem Widerspruch zwischen einer einzelnen menschlichen und einer einzelnen LLM-Antwort durch. Die Ergebnisse zeigen, dass die Modelle deutlich häufiger ihre eigenen Antworten an die von menschlichen Experten anpassen, selbst wenn diese fehlerhaft sind, und ihre Revisionen schneller vornehmen als bei Antworten anderer LLMs.
Diese Befunde deuten darauf hin, dass die Wahrnehmung von Expertenwissen als starkes Prioritätssignal für heutige LLMs fungiert. Die Modelle zeigen damit eine glaubwürdigkeitsabhängige soziale Beeinflussung, die sich über verschiedene Entscheidungsdomänen hinweg auswirkt.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.