LLMs halluzinieren: Warum und wie Bewertungssysteme das Problem verstärken
Anzeige
Large Language Models (LLMs) erzeugen häufig „Halluzinationen“ – überzeugende, aber falsche Antworten. Trotz Fortschritten in Training und Architektur bleiben diese Phänomene bestehen. Eine neue Studie von OpenAI liefert eine klare Erklärung: Halluzinationen entstehen aus statistischen Unterschieden zwischen überwachten und selbstüberwachten Lernmethoden. Gleichzeitig verstärken falsche oder nicht ausgerichtete Evaluierungsbenchmarks das Problem, indem sie Modelle belohnen, die plausibel, aber inkorrekt antworten.
Ähnliche Artikel
arXiv – cs.AI
•
KI-gestützte Annotation-Pipelines stabilisieren große Sprachmodelle
ZDNet – Artificial Intelligence
•
OpenAI beschleunigt heimlich „Garlic“, um ChatGPTs Schwächen zu beheben
arXiv – cs.AI
•
Learned Hallucination Detection in Black-Box LLMs using Token-level Entropy Production Rate
Wired – AI (Latest)
•
Filmemacher erstellt Sam Altman Deepfake – und bekommt unerwartete Folgen
arXiv – cs.AI
•
Mehr als Genauigkeit: Geometrische Stabilitätsanalyse von LLMs im Schach
arXiv – cs.AI
•
LLMs im wissenschaftlichen Durchbruch: Neues Benchmark zeigt Stärken und Grenzen