Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Large Reasoning Models”
Forschung

<h1>Große Rechenmodelle zeigen bei Mehrfachangriffen Schwächen</h1> <p>Neuste Forschungsergebnisse zeigen, dass große Rechenmodelle, die komplexe Schlussfolgerungen ziehen können, zwar Spitzenleistungen bei anspruchsvollen Aufgaben erbringen, aber unter mehrstufiger, gezielter Angriffsbelastung nicht automatisch robust bleiben. In einer umfassenden Studie wurden neun der fortschrittlichsten Rechenmodelle auf ihre Widerstandsfähigkeit gegen gezielte Angriffe getestet.</p> <p>Die Ergebnisse sind eindeutig: Mo

arXiv – cs.AI
Forschung

Große Sprachmodelle zeigen Schwächen bei Theory of Mind-Aufgaben Eine aktuelle Untersuchung aus dem arXiv‑Repository analysiert, ob die jüngsten Fortschritte bei Großen Rechenmodellen (LRMs) – die für Schritt‑für‑Schritt‑Rechnungen in Mathematik und Programmierung glänzen – auch auf sozialkognitive Fähigkeiten übertragen werden können. Dabei wurden neun hochentwickelte Große Sprachmodelle (LLMs) systematisch auf drei repräsentativen Theory of Mind (ToM)-Benchmarks getestet, wobei Modelle mit expliziter Re

arXiv – cs.AI
Forschung

<h1>LLMs gegen Halluzinationen: Ein neuer Rahmen für Zuverlässigkeit</h1> <p>Large Language Models (LLMs) und Large Reasoning Models (LRMs) versprechen enorme Fortschritte in Bereichen wie Finanzen und Recht. Doch ihre Neigung, falsche oder unbestätigte Inhalte zu erzeugen – sogenannte Halluzinationen – stellt ein ernstes Vertrauensproblem dar.</p> <p>In einer neuen Studie wird ein umfassendes operatives Rahmenwerk vorgestellt, das Halluzinationen systematisch erkennt und mindert. Der Ansatz basiert auf ein

arXiv – cs.AI
Forschung

<h1>LLMs lernen aus Fehlern: Fehlerhafte Denkpfade verbessern Mathegenauigkeit</h1> <p>In der Welt der großen Sprachmodelle hat sich die Technik des „Chain‑of‑Thought“ (CoT) Promptings als Schlüssel zur Lösung mathematischer Aufgaben etabliert. Trotz dieser Fortschritte bleiben die Modelle empfindlich gegenüber frühen Fehlern: Ein einziger Rechenfehler oder ein unbegründeter logischer Schritt kann sich unbemerkt fortsetzen und zum endgültigen Ergebnis verzehren.</p> <p>Um diesem Problem entgegenzuwirken, ha

arXiv – cs.AI