LLMs enthüllen Wahl‑Gerüchte: Neue Studie analysiert Desinformation

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Eine kürzlich veröffentlichte Arbeit auf arXiv zeigt, wie große Sprachmodelle (LLMs) die Analyse von Wahl‑Gerüchten in Echtzeit ermöglichen. Durch die Kombination von KI‑Techniken und psychologischer Messung liefert die Studie erstmals ein umfangreiches Datenset zu Gerüchten auf einer Nischen‑Alt‑Tech‑Plattform.

Der Kern der Forschung ist ein mehrstufiger „Rumor Detection Agent“, der LLMs nutzt, um Inhalte mit hoher Präzision zu klassifizieren. Dabei werden ein synthetisch angereichertes RoBERTa‑Modell, präzise Schlüsselwort‑Filter und ein zweistufiger Verifizierungs‑Pipeline mit GPT‑4o mini eingesetzt. Diese Kombination erlaubt eine robuste Erkennung von Desinformation in großen, realen Datensätzen.

Die Ergebnisse zeigen deutlich, dass die Wahrscheinlichkeit, ein Gerücht zu teilen, mit jeder zusätzlichen Exposition stetig steigt. Das bestätigt den „illusory truth effect“ – die Tendenz, wiederholte Informationen als wahr einzustufen – in ideologisch homogenen Netzwerken. Simulationen verdeutlichen zudem, dass in nur vier Weiterleitungsrunden fast ein Viertel der Nutzer „infiziert“ wird.

Diese Erkenntnisse demonstrieren, wie LLMs die psychologische Forschung revolutionieren können. Sie ermöglichen eine präzise Messung von Glaubensdynamiken und die Verfolgung von Desinformation in großem Maßstab, was für die Aufklärung von Wahl‑Gerüchten und die Förderung einer informierten Öffentlichkeit von entscheidender Bedeutung ist.

Ähnliche Artikel