LLM-Agenten simulieren Misinformation: Vertrauen & Polarisierung neu erforscht
In einer wegweisenden Studie aus dem arXiv-Repository wurde ein agentenbasiertes Simulationsmodell entwickelt, das auf großen Sprachmodellen (LLMs) basiert. Ziel war es, die Reaktionen verschiedener Bevölkerungsgruppen auf Desinformationskampagnen zu untersuchen, ohne dabei auf reale Experimente zurückgreifen zu müssen, die ethisch problematisch sein könnten.
Die Forscher haben fünf Berufsgruppen und drei mentale Schema-Typen als Agenten-Personas definiert. Diese Agenten wurden mit aktuellen Nachrichtenüberschriften konfrontiert, und ihre Reaktionen wurden analysiert. Die Ergebnisse zeigen, dass die von LLMs generierten Agenten die gleichen Muster aufweisen wie menschliche Vorhersagen und die tatsächlichen Labels, was die Zuverlässigkeit dieser Methode unterstreicht.
Ein besonders interessanter Befund ist, dass die mentale Schema-Typen einen stärkeren Einfluss auf die Interpretation von Desinformation haben als die berufliche Zugehörigkeit. Dies legt nahe, dass kognitive Strukturen entscheidend dafür sind, wie Menschen falsche Informationen aufnehmen und verarbeiten.
Die Arbeit liefert damit eine solide Validierung dafür, dass LLM-basierte Agenten als Proxys in agentenbasierten Modellen von Informationsnetzwerken eingesetzt werden können. Damit eröffnen sich neue Möglichkeiten, Vertrauen, Polarisierung und Anfälligkeit für irreführende Inhalte in komplexen sozialen Systemen zu analysieren und gezielte Interventionen zu entwickeln.