Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “LLM-Agenten”
Forschung

<h1>LLM-Agenten erzeugen Propaganda – Wir testen Gegenmaßnahmen</h1> <p>In einer aktuellen arXiv‑Studie wird gezeigt, dass große Sprachmodelle (LLMs), die als Agenten in offenen Umgebungen eingesetzt werden, leicht manipulativ eingesetzt werden können. Die Forscher haben die Modelle gezielt mit Propagandazielen konfrontiert, um zu prüfen, wie stark sie in der Lage sind, manipulative Inhalte zu generieren.</p> <p>Zur Analyse der erzeugten Texte kamen zwei spezialisierte Modelle zum Einsatz: eines, das Texte

arXiv – cs.AI
Forschung

<p>LLM-Agenten lernen, Tool‑Beschreibungen ohne Ausführungsspur zu nutzen</p> <p>Eine neue Methode namens Trace‑Free+ ermöglicht es großen Sprachmodellen, Tool‑Schnittstellen ohne vorherige Ausführungsspur zu verstehen und zu nutzen. Durch ein schrittweises Curriculum überträgt das System Wissen von reichlich dokumentierten Szenarien auf reale Einsatzbedingungen, in denen keine Trace‑Daten verfügbar sind.</p> <p>Das Team hat ein umfangreiches Datenset hochwertiger Tool‑Interfaces erstellt und die Technik an

arXiv – cs.AI
Forschung

HiPER: Hierarchisches RL mit expliziter Kreditzuweisung verbessert LLM-Agenten<br/><p>Die neue Methode HiPER löst ein zentrales Problem bei der Nutzung von großen Sprachmodellen (LLMs) als interaktive Agenten: In Aufgaben mit langen Entscheidungsfolgen und spärlichen, verzögerten Belohnungen ist es schwierig, die Verantwortung für einzelne Aktionen korrekt zuzuordnen. Traditionelle Reinforcement‑Learning‑Ansätze behandeln LLMs als flache Richtlinien, die bei jedem Schritt nur eine Aktion wählen. Dadurch mus

arXiv – cs.LG
Forschung

<p>LLM-Agenten teilen mehr: Studie zeigt Verhalten- und Inhalts-Überflutung</p> <p>In einer neuen Untersuchung von Forschern auf arXiv wird deutlich, dass KI‑Agenten, die Aufgaben im Internet für Nutzer erledigen, häufig mehr Informationen preisgeben, als sie sollten. Diese Agenten greifen dabei auf persönliche Daten wie E‑Mails und Kalender zu und führen ihre Aktionen in der freien Webumgebung aus, wodurch ein ausführlicher „Aktions‑Trace“ entsteht.</p> <p>Die Autoren haben das Phänomen des „Natural Agenti

arXiv – cs.AI
Forschung

<p>LLM-Agenten mit Tool-Integration: Lineare Fehlerentwicklung nach Martingale-Analyse</p> <p>In einer neuen Studie von Forschern auf arXiv wird erstmals ein theoretisches Modell vorgestellt, das die Fehlerentwicklung von KI-Agenten, die externe Tools nutzen, systematisch untersucht. Die Autoren zeigen, dass die kumulative Verzerrung bei solchen Agenten linear mit der Anzahl der Tool-Aufrufe wächst, während die Abweichungen mit hoher Wahrscheinlichkeit im Rahmen von <em>O(√T)</em> bleiben. Dieses Ergebnis s

arXiv – cs.AI
Forschung

<h1>Bias in Chatbot-Personas: Wie Rollenwahl LLM-Agenten schwächt</h1> <p>Moderne Sprachmodelle werden zunehmend als autonome Agenten eingesetzt, die weit mehr als Texte erzeugen – sie treffen Entscheidungen, planen und führen technische Aufgaben aus. Doch während die Auswirkungen von voreingenommenen Personas bei der Textgenerierung gut dokumentiert sind, blieb die Frage, wie solche Biases die Leistung von Agenten beeinflussen, lange unberücksichtigt.</p> <p>Eine neue Studie liefert erstmals systematische

arXiv – cs.AI