<h1>LLMs enthüllen unterschätzte Vertrauenssignale – fundierte Erkenntnisse</h1> <p>Eine neue Studie zeigt, dass moderne Sprachmodelle wie Llama 3.1, Qwen 2.5 und Mistral bereits ohne gezielte Anweisungen psychologisch relevante Vertrauenssignale in ihren Antworten verankern. Diese Entdeckung legt nahe, dass die Vertrauenswürdigkeit von KI‑Systemen bereits im Pre‑Training‑Prozess entsteht.</p> <p>Die Forscher nutzten das PEACE‑Reviews‑Datensatz, der Web‑ähnliche Texte mit Bewertungen zu kognitiven Einschätz
Anzeige