Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Rechenmodelle”
Forschung

<p>Metakognitive Entropie-Kalibrierung verbessert verifizierbares RL-Reasoning</p> <p>In den letzten Jahren haben große Rechenmodelle für komplexe Aufgaben, wie Mathematik und Frage‑Antwort‑Systeme, enorme Fortschritte erzielt. Diese Modelle werden meist mit Reinforcement Learning und verifizierbaren Belohnungen (RLVR) trainiert. Dabei wird jedoch fast ausschließlich ein binäres Korrektheitssignal verwendet, während die inhärente Unsicherheit des Modells weitgehend ignoriert wird. Dieses „Uncertainty‑Reward

arXiv – cs.AI
Forschung

<h1>Große Rechenmodelle zeigen bei Mehrfachangriffen Schwächen</h1> <p>Neuste Forschungsergebnisse zeigen, dass große Rechenmodelle, die komplexe Schlussfolgerungen ziehen können, zwar Spitzenleistungen bei anspruchsvollen Aufgaben erbringen, aber unter mehrstufiger, gezielter Angriffsbelastung nicht automatisch robust bleiben. In einer umfassenden Studie wurden neun der fortschrittlichsten Rechenmodelle auf ihre Widerstandsfähigkeit gegen gezielte Angriffe getestet.</p> <p>Die Ergebnisse sind eindeutig: Mo

arXiv – cs.AI
Forschung

Große Sprachmodelle zeigen Schwächen bei Theory of Mind-Aufgaben Eine aktuelle Untersuchung aus dem arXiv‑Repository analysiert, ob die jüngsten Fortschritte bei Großen Rechenmodellen (LRMs) – die für Schritt‑für‑Schritt‑Rechnungen in Mathematik und Programmierung glänzen – auch auf sozialkognitive Fähigkeiten übertragen werden können. Dabei wurden neun hochentwickelte Große Sprachmodelle (LLMs) systematisch auf drei repräsentativen Theory of Mind (ToM)-Benchmarks getestet, wobei Modelle mit expliziter Re

arXiv – cs.AI