LLMs replizieren menschliche Kooperation in Spieltheorie-Experimenten
In den letzten Jahren werden große Sprachmodelle (LLMs) vermehrt eingesetzt, um Entscheidungen in Bereichen wie Gesundheit, Bildung und Recht zu treffen und menschliches Verhalten zu simulieren. Wie genau diese Modelle jedoch menschliche Entscheidungsprozesse nachbilden, ist bislang wenig erforscht. Diese Lücke ist entscheidend, denn eine Fehlanpassung kann zu schädlichen Konsequenzen führen, während eine fehlende Repräsentation die Nützlichkeit von LLMs für soziale Simulationen stark einschränkt.