Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Ranker”
Forschung

<h1>LLM‑Reranker: Verhalten unter festen Evidenzpools diagnostiziert</h1> <p>Forscher haben ein neues Diagnoseverfahren entwickelt, das das Ranking‑Verhalten großer Sprachmodelle (LLMs) isoliert, indem feste Evidenzpools verwendet werden.</p> <p>In herkömmlichen Reranking‑Tests werden die Ergebnisse von Retrieval‑ und Ranking‑Algorithmen miteinander vermischt, sodass Unterschiede nicht eindeutig dem Ranking‑Verhalten zugeschrieben werden können.</p> <p>Die neue Methode nutzt Multi‑News‑Cluster als feste Evi

arXiv – cs.LG
Forschung

Ontologie-gesteuerte Neuro-Symbolik: Sprachmodelle mit mathematischem Wissen Sprachmodelle stoßen in hochspezialisierten Bereichen häufig an ihre Grenzen: Sie neigen zu Halluzinationen, zeigen Schwankungen in der Zuverlässigkeit und fehlen formale Verankerungen. Ein neuer Ansatz untersucht, ob formale Fachontologien diese Schwächen mindern können, indem sie als Wissensbasis für Retrieval-gestützte Generierung dienen. Im Fokus steht die Mathematik, die als Testfeld dient. Durch die Integration der OpenMa

arXiv – cs.AI
Forschung

<h1>LLMs enthüllen unterschätzte Vertrauenssignale – fundierte Erkenntnisse</h1> <p>Eine neue Studie zeigt, dass moderne Sprachmodelle wie Llama 3.1, Qwen 2.5 und Mistral bereits ohne gezielte Anweisungen psychologisch relevante Vertrauenssignale in ihren Antworten verankern. Diese Entdeckung legt nahe, dass die Vertrauenswürdigkeit von KI‑Systemen bereits im Pre‑Training‑Prozess entsteht.</p> <p>Die Forscher nutzten das PEACE‑Reviews‑Datensatz, der Web‑ähnliche Texte mit Bewertungen zu kognitiven Einschätz

arXiv – cs.AI