FactGuard: KI-gestützte Fake-News-Erkennung ohne Stilabhängigkeit
Die Erkennung von Falschmeldungen hat sich lange auf stilistische Merkmale konzentriert, doch Angreifer imitieren zunehmend den Schreibstil echter Nachrichten, wodurch diese Ansätze an Wirksamkeit verlieren. In einer neuen Studie wird ein innovatives System namens FactGuard vorgestellt, das große Sprachmodelle (LLMs) nutzt, um Ereignisse im Text zu extrahieren und damit die Abhängigkeit von Schreibstil zu reduzieren.
FactGuard kombiniert die Stärken von LLMs mit einer dynamischen Nutzbarkeitsmechanik: Das System erkennt widersprüchliche oder mehrdeutige Fakten und holt gezielt LLM-Unterstützung ein, um die Entscheidungszuverlässigkeit zu erhöhen. Durch gezielte Wissensdistillation entsteht die kompakte Variante FactGuard‑D, die auch in ressourcenbeschränkten Umgebungen zuverlässig arbeitet.
Umfangreiche Experimente an zwei Standard-Datensätzen zeigen, dass FactGuard sowohl in Bezug auf Robustheit als auch Genauigkeit bestehende Methoden übertrifft. Damit adressiert es die Herausforderungen der Stilempfindlichkeit und der praktischen Nutzung von LLMs in der Fake‑News‑Erkennung und bietet einen vielversprechenden Ansatz für die reale Anwendung.