Mehr Zuverlässigkeit: KI erzeugt Lernfragen ohne Halluzinationen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In der Welt der künstlichen Intelligenz stellen Halluzinationen – fließende, aber falsche oder unlogische Ausgaben – ein großes Hindernis für die automatische Erstellung von Lernfragen dar. Besonders bei Multiple‑Choice‑Fragen (MCQs) können diese Fehler das Lernziel gefährden.

Forscher haben vier Haupttypen solcher Halluzinationen identifiziert: Inkonsistenzen in der Argumentation, Unlösbarkeit der Aufgaben, Faktenfehler und mathematische Ungenauigkeiten. Diese Fehlerquellen erschweren die Produktion von qualitativ hochwertigen, prüfungsrelevanten Fragen.

Um dem entgegenzuwirken, wurde ein „Halluzinationsfreies“ Multi‑Agenten‑Framework entwickelt. Dabei wird die Frageerstellung in mehrere, überprüfbare Schritte zerlegt. Regelbasierte und KI‑basierte Erkennungsagenten sowie ein Halluzinations‑Scoring‑System optimieren die Qualität, indem sie Risiken minimieren und gleichzeitig Validität, Beantwortbarkeit und Kosteneffizienz maximieren. Ein agentengeleiteter Verfeinerungsprozess nutzt kontrafaktisches Denken und „Chain‑of‑Thought“ (CoT), um die Fehlerquote schrittweise zu senken.

In einer Testreihe mit AP‑angemeldeten STEM‑Fragen konnte das System die Halluzinationsrate um mehr als 90 % senken, ohne die pädagogische Qualität oder den Stil der Fragen zu beeinträchtigen. Diese Ergebnisse zeigen, dass strukturierte, mehrstufige KI‑Zusammenarbeit die Zuverlässigkeit von Lerninhalten signifikant steigern kann.

Die Studie legt nahe, dass ein gut orchestriertes Multi‑Agenten‑System die Grundlage für skalierbare, halluzinationsfreie Lernwerkzeuge bildet und damit die Zukunft von KI‑unterstütztem Lernen sicherer und effektiver gestaltet.

Ähnliche Artikel