Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Potential”
Forschung

<p>Transformer‑Attention als Mehrspieler‑Spiel: Neue Theorie reduziert Halluzinationen um 18 %</p> <p>In einer kürzlich veröffentlichten Studie auf arXiv wird die interne Funktionsweise von Transformer‑Attention neu beleuchtet. Die Autoren zeigen, dass die einzelnen Attention‑Heads nicht wie ein einzelner Optimierer agieren, sondern als unabhängige Agenten konkurrieren und kooperieren.</p> <p>Durch die gängige Kreuzentropie‑Optimierung entsteht dabei ein implizites Potentialspiel zwischen den Heads. Gradien

arXiv – cs.AI
Forschung

<h1>LLM meistern Geometrie: Diagramme in kompakte Beschreibungen umwandeln</h1> <p>Die Lösung von Flächengleichungsaufgaben – Plane Geometry Problem Solving (PGPS) – erfordert die gleichzeitige Analyse von Bilddiagrammen und Textbeschreibungen. Obwohl große Sprachmodelle (LLMs) über ausgeprägte logische Fähigkeiten verfügen, können sie Bilder nicht direkt verarbeiten, was ihre direkte Anwendung auf PGPS stark einschränkt.</p> <p>Aktuelle Ansätze versuchen, multimodale LLMs (MLLMs) end-to-end auf umfangreich

arXiv – cs.AI