Benevolent Dictators? LLM-Agenten zeigen überraschend starke Fairness in Dictator Games

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Eine neue Studie aus dem Bereich der Verhaltensforschung untersucht, wie große Sprachmodelle (LLMs) in klassischen „Dictator Games“ agieren. Dabei geht es darum, ob die KI‑Agenten eher selbstinteressiert handeln oder ein starkes Bedürfnis nach Fairness zeigen.

Um die Ergebnisse zuverlässig zu machen, hat das Forschungsteam einen neuen Rahmen namens LLM‑ABS entwickelt. Dieser Ansatz testet gezielt, wie unterschiedliche System‑Prompts – also die grundlegenden Anweisungen, die das Modell erhält – das Verhalten der Agenten verändern. Durch die Verwendung neutraler Prompt‑Variationen und die Analyse sprachlicher Merkmale in offenen Antworten soll ein klareres Bild der Entscheidungslogik entstehen.

Die Ergebnisse sind überraschend: Die meisten Agenten geben einen deutlich fairen Anteil des Geldes weiter, und die Art des System‑Prompts hat einen erheblichen Einfluss auf diese Entscheidungen. Zudem zeigen die sprachlichen Ausdrücke der Modelle deutliche Unterschiede, die auf unterschiedliche Überlegungen hinweisen.

Diese Erkenntnisse unterstreichen die Notwendigkeit robuster Baselines, wenn man komplexe Verhaltensmuster von LLMs untersucht. Die Studie liefert wertvolle Hinweise für zukünftige Forschungen, die darauf abzielen, KI‑Agenten verantwortungsvoller und nachvollziehbarer zu gestalten.

Ähnliche Artikel