<p>Wahrscheinlichkeiten allein: Effiziente Unsicherheitsabschätzung für LLMs</p> <p>Große Sprachmodelle (LLMs) liefern beeindruckende Ergebnisse bei vielen NLP-Aufgaben, sind jedoch anfällig für Halluzinationen, also faktisch falsche oder irreführende Antworten. Um diese Problematik zu mildern, ist die Abschätzung der Unsicherheit entscheidend, wobei die Vorhersage-Entropie häufig als Maß dient.</p> <p>Aktuelle Verfahren zur Entropieberechnung erfordern meist mehrere Stichproben oder zusätzliche Rechenresso
Anzeige