Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Hallucination”
Forschung

<p>Neue Methode namens CORVUS schwächt Halluzinationsdetektoren von LLMs</p> <p>In einer kürzlich veröffentlichten Studie auf arXiv wird die Technik <strong>CORVUS</strong> vorgestellt, die es Angreifern ermöglicht, die internen Signale großer Sprachmodelle zu tarnen und damit gängige Halluzinationsdetektoren zu umgehen. Die Detektoren, die auf Messgrößen wie Unsicherheit, Geometrie des versteckten Zustands und Aufmerksamkeitsverteilungen basieren, gehen implizit davon aus, dass Halluzinationen erkennbare S

arXiv – cs.AI
Forschung

<h1>LLMs gegen Halluzinationen: Ein neuer Rahmen für Zuverlässigkeit</h1> <p>Large Language Models (LLMs) und Large Reasoning Models (LRMs) versprechen enorme Fortschritte in Bereichen wie Finanzen und Recht. Doch ihre Neigung, falsche oder unbestätigte Inhalte zu erzeugen – sogenannte Halluzinationen – stellt ein ernstes Vertrauensproblem dar.</p> <p>In einer neuen Studie wird ein umfassendes operatives Rahmenwerk vorgestellt, das Halluzinationen systematisch erkennt und mindert. Der Ansatz basiert auf ein

arXiv – cs.AI
Forschung

<h1>Embedding-basierte Halluzinations-Erkennung in RAG-Systemen: Grenzen der semantischen Illusion</h1> <p>Retrieval-Augmented Generation (RAG)-Systeme bleiben trotz der Einbindung von Suchergebnissen anfällig für Halluzinationen. Aktuelle Erkennungsansätze stützen sich vor allem auf semantische Ähnlichkeit und Natural Language Inference (NLI), doch ihre fundamentalen Grenzen wurden bislang nicht systematisch untersucht.</p> <p>In einer neuen Studie wenden die Autoren die Konfidenzvorhersage (conformal pred

arXiv – cs.LG