Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Views”
Forschung

<p>LLM-basierte Rangliste optimiert Review-Verteilung an ML-Konferenzen</p> <p>Eine neue Studie schlägt vor, dass große Machine‑Learning‑Konferenzen die begrenzte Review‑Kapazität gezielt auf diejenigen Papers konzentrieren sollten, die sich am Annahme‑Grenzbereich befinden. Statt zufälliger oder affinitätsbasierter Zuweisungen wird hier ein systematischer Ansatz präsentiert, der die Effizienz des Review‑Prozesses deutlich steigert.</p> <p>Der Kern der Methode ist ein LLM‑gestütztes Vergleichs‑Ranking, das

arXiv – cs.AI
Forschung

<h1>LLMs im Peer-Review: Keine Bevorzugung, sondern Qualitätsbias</h1> <p>Neue Forschungsergebnisse zeigen, dass große Sprachmodelle (LLMs) nicht nur bei der Erstellung wissenschaftlicher Arbeiten, sondern auch im Peer‑Review-Prozess eingesetzt werden. In einer umfassenden Analyse von über 125 000 Paper‑Review‑Paaren aus ICLR, NeurIPS und ICML wurde untersucht, ob LLM‑unterstützte Reviews LLM‑unterstützte Papers bevorzugen.</p> <p>Auf den ersten Blick scheint ein systematischer Interaktionseffekt zu bestehe

arXiv – cs.AI
Forschung

LLMs reduzieren Fehlalarme in statischer Codeanalyse um bis zu 98 % Statistische Analysewerkzeuge (SATs) sind in Forschung und Industrie allgegenwärtig, doch ihre Effektivität wird häufig durch eine hohe Rate an Fehlalarmen eingeschränkt. Diese Fehlalarme erfordern umfangreiche manuelle Prüfungen und führen zu erheblichen Ineffizienzen bei Code‑Reviews in großen Unternehmenssystemen. In einer ersten umfassenden empirischen Untersuchung wurden verschiedene LLM‑basierte Techniken zur Reduktion von Fehlala

arXiv – cs.AI
Forschung

<h1>LLMs enthüllen unterschätzte Vertrauenssignale – fundierte Erkenntnisse</h1> <p>Eine neue Studie zeigt, dass moderne Sprachmodelle wie Llama 3.1, Qwen 2.5 und Mistral bereits ohne gezielte Anweisungen psychologisch relevante Vertrauenssignale in ihren Antworten verankern. Diese Entdeckung legt nahe, dass die Vertrauenswürdigkeit von KI‑Systemen bereits im Pre‑Training‑Prozess entsteht.</p> <p>Die Forscher nutzten das PEACE‑Reviews‑Datensatz, der Web‑ähnliche Texte mit Bewertungen zu kognitiven Einschätz

arXiv – cs.AI