Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “HotpotQA”
Forschung

<p>LLM-Agenten liefern inkonsistente Ergebnisse – Konsistenz entscheidet</p> <p>Eine neue Studie mit 3.000 Agentenläufen auf der HotpotQA‑Plattform hat gezeigt, dass große Sprachmodelle wie Llama 3.1 70 B, GPT‑4o und Claude Sonnet 4.5 nicht immer das gleiche Verhalten zeigen, wenn sie dieselbe Aufgabe zweimal ausführen. ReAct‑basierte Agenten produzieren durchschnittlich 2,0 bis 4,2 unterschiedliche Aktionsketten pro zehn Durchläufe, obwohl die Eingaben identisch sind.</p> <p>Die Ergebnisse sind nicht nur ü

arXiv – cs.AI