Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Reflection”
Forschung

<p>LLMs lernen wie Menschen: Metakognitive Reflexion beschleunigt Selbstverbesserung</p> <p>Neues Forschungspapier aus dem arXiv-Repository präsentiert MARS – einen innovativen Ansatz, mit dem große Sprachmodelle (LLMs) ihre eigenen Fähigkeiten in einem einzigen Reflexionszyklus optimieren können. Während herkömmliche Agenten durch statische, vom Menschen erstellte Eingabeaufforderungen eingeschränkt bleiben, nutzt MARS Prinzipien der Bildungspsychologie, um die Lernprozesse von LLMs nachzuahmen.</p> <p>Der

arXiv – cs.AI
Forschung

<h1>Neues Modell ChartPoint verbessert Chart-Verständnis von MLLMs um 5 %</h1> <p>In einer kürzlich veröffentlichten Studie auf arXiv wird ein innovativer Ansatz vorgestellt, der multimodale Large Language Models (MLLMs) dabei unterstützt, Diagramme präziser zu interpretieren. Der Kern des Problems liegt darin, dass aktuelle Modelle stark auf OCR-Ergebnisse angewiesen sind, was bei wenigen Textangaben zu numerischen Halluzinationen führt und die visuelle Wahrnehmung vernachlässigt.</p> <p>Um diese Lücke zu

arXiv – cs.AI
Forschung

<p>LLMs scheitern bei Reflexion: Echo-Phänomen und neue Lösung</p> <p>Neues Forschungsdokument aus dem arXiv zeigt, dass große Sprachmodelle (LLMs) bei komplexen Aufgaben, die über reine Mathematik hinausgehen, häufig keine neuen Einsichten während der Reflexionsphase erzeugen. Stattdessen wiederholen sie mechanisch frühere Überlegungen, ein Verhalten, das als „Echo‑Reflection“ bezeichnet wird.</p> <p>Die Autoren identifizieren zwei Hauptursachen: Erstens lässt ein unkontrollierter Informationsfluss während

arXiv – cs.AI