LLMs halluzinieren: Warum und wie Bewertungssysteme das Problem verstärken
Anzeige
Large Language Models (LLMs) erzeugen häufig „Halluzinationen“ – überzeugende, aber falsche Antworten. Trotz Fortschritten in Training und Architektur bleiben diese Phänomene bestehen. Eine neue Studie von OpenAI liefert eine klare Erklärung: Halluzinationen entstehen aus statistischen Unterschieden zwischen überwachten und selbstüberwachten Lernmethoden. Gleichzeitig verstärken falsche oder nicht ausgerichtete Evaluierungsbenchmarks das Problem, indem sie Modelle belohnen, die plausibel, aber inkorrekt antworten.
Ähnliche Artikel
arXiv – cs.AI
•
UCPO: Neue Methode reduziert Halluzinationen in Sprachmodellen
Gary Marcus – Marcus on AI
•
ChatGPT: Warum KI nicht für Live‑Nachrichten geeignet ist
arXiv – cs.AI
•
KI-gestützte Annotation-Pipelines stabilisieren große Sprachmodelle
ZDNet – Artificial Intelligence
•
OpenAI beschleunigt heimlich „Garlic“, um ChatGPTs Schwächen zu beheben
arXiv – cs.AI
•
Learned Hallucination Detection in Black-Box LLMs using Token-level Entropy Production Rate
Latent Space
•
OpenAI kündigt Codex App an: VSCode-Fork endet, neue Worktrees & Automatisierung