Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Denkpfade”
Forschung

Auditierung von Multi-Agenten-LLM-Denkbäumen übertrifft Mehrheitsabstimmung In der Forschung zu Multi-Agenten-Systemen (MAS) wird die Rechenkraft großer Sprachmodelle (LLMs) häufig durch die Zusammenarbeit mehrerer Agenten erweitert. Dennoch setzen die meisten Ansätze noch immer auf eine einfache Mehrheitsabstimmung, um die einzelnen Agentenausgaben zu aggregieren. Diese Heuristik ignoriert jedoch die eigentliche Beweiskette der einzelnen Denkpfade und ist besonders anfällig, wenn die Agenten zu einer

arXiv – cs.AI
Forschung

<p>ALIGN: Delegation mit Leistungsgarantien steigert LLM-Logik</p> <p>Die Leistung von großen Sprachmodellen (LLMs) bei komplexen Logikaufgaben bleibt oft hinter den Erwartungen zurück, wenn sie auf einen einzigen Generierungs- und Auswahlprozess angewiesen sind. Inferenzzeit-Ensemble-Methoden können die Genauigkeit verbessern, indem sie verschiedene Denkpfade erfassen oder mehrere Kandidaten aggregieren, behandeln diese jedoch meist unabhängig voneinander und bieten keine formalen Garantien, dass das Ensem

arXiv – cs.LG
Forschung

<h1>LLMs lernen aus Fehlern: Fehlerhafte Denkpfade verbessern Mathegenauigkeit</h1> <p>In der Welt der großen Sprachmodelle hat sich die Technik des „Chain‑of‑Thought“ (CoT) Promptings als Schlüssel zur Lösung mathematischer Aufgaben etabliert. Trotz dieser Fortschritte bleiben die Modelle empfindlich gegenüber frühen Fehlern: Ein einziger Rechenfehler oder ein unbegründeter logischer Schritt kann sich unbemerkt fortsetzen und zum endgültigen Ergebnis verzehren.</p> <p>Um diesem Problem entgegenzuwirken, ha

arXiv – cs.AI