Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “große Rechenmodelle”
Forschung

<p>Metakognitive Entropie-Kalibrierung verbessert verifizierbares RL-Reasoning</p> <p>In den letzten Jahren haben große Rechenmodelle für komplexe Aufgaben, wie Mathematik und Frage‑Antwort‑Systeme, enorme Fortschritte erzielt. Diese Modelle werden meist mit Reinforcement Learning und verifizierbaren Belohnungen (RLVR) trainiert. Dabei wird jedoch fast ausschließlich ein binäres Korrektheitssignal verwendet, während die inhärente Unsicherheit des Modells weitgehend ignoriert wird. Dieses „Uncertainty‑Reward

arXiv – cs.AI
Forschung

<h1>Große Rechenmodelle zeigen bei Mehrfachangriffen Schwächen</h1> <p>Neuste Forschungsergebnisse zeigen, dass große Rechenmodelle, die komplexe Schlussfolgerungen ziehen können, zwar Spitzenleistungen bei anspruchsvollen Aufgaben erbringen, aber unter mehrstufiger, gezielter Angriffsbelastung nicht automatisch robust bleiben. In einer umfassenden Studie wurden neun der fortschrittlichsten Rechenmodelle auf ihre Widerstandsfähigkeit gegen gezielte Angriffe getestet.</p> <p>Die Ergebnisse sind eindeutig: Mo

arXiv – cs.AI