Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “RSI”
Forschung

<p>LLM-Poker-Agenten entwickeln ToM‑ähnliches Verhalten dank Speicher</p> <p>Eine neue Untersuchung auf arXiv zeigt, dass große Sprachmodelle (LLMs) in dynamischen Interaktionen – hier beim Texas Hold'em Poker – ein ToM‑ähnliches Verhalten entwickeln können, wenn sie über persistente Erinnerung verfügen. Das Ergebnis ist ein klarer Beweis dafür, dass ToM nicht nur in statischen Szenarien, sondern auch in laufenden Gesprächen und Spielen entstehen kann.</p> <p>Die Studie umfasste 20 unabhängige Experimente m

arXiv – cs.AI
Forschung

<h1>AgentHazard: Benchmark enthüllt Schwachstellen autonomer Computeragenten</h1> <p>Ein neues Benchmark namens AgentHazard wurde entwickelt, um die Gefahr von schädlichem Verhalten bei Computer‑Use‑Agenten zu untersuchen. Diese Agenten bauen auf Sprachmodellen auf, übernehmen jedoch die Fähigkeit, über Tools, Dateien und Ausführungsumgebungen hinweg persistente Aktionen auszuführen. Im Gegensatz zu herkömmlichen Chat‑Systemen behalten sie ihren Zustand über mehrere Interaktionen hinweg bei und wandeln Zwis

arXiv – cs.AI
Forschung

<h1>Wie Coding-Agenten Tools, Speicher und Repository‑Kontext nutzen</h1> <p>In der Praxis steigern spezialisierte Coding‑Agenten die Leistungsfähigkeit großer Sprachmodelle (LLMs), indem sie gezielt externe Werkzeuge, persistente Speicher und den Kontext von Code‑Repos nutzen. Durch die Integration von Entwicklungs‑Tools wie Git, IDE‑Plugins und Testframeworks kann der Agent Code generieren, testen und iterativ verbessern, ohne dass der Entwickler ständig zwischen verschiedenen Anwendungen wechseln muss.</

Sebastian Raschka – Ahead of AI