LLM-Agenten simulieren Misinformation: Vertrauen & Polarisierung neu erforscht
In einer wegweisenden Studie aus dem arXiv-Repository wurde ein agentenbasiertes Simulationsmodell entwickelt, das auf großen Sprachmodellen (LLMs) basiert. Ziel war es, die Reaktionen verschiedener Bevölkerungsgruppen auf Desinformationskampagnen zu untersuchen, ohne dabei auf reale Experimente zurückgreifen zu müssen, die ethisch problematisch sein könnten.