Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “GAT”
Forschung

<p>LLMs ermöglichen flexible, aber deterministische wissenschaftliche Workflows</p> <p>Neues Forschungspapier auf arXiv zeigt, dass große Sprachmodelle (LLMs) inzwischen in der Lage sind, die Ziele von Forschern in klare, ausführbare Befehle zu übersetzen. Gleichzeitig stellen wissenschaftliche Workflows hohe Anforderungen an Determinismus, Nachvollziehbarkeit und Governance – Eigenschaften, die schwer zu garantieren sind, wenn ein LLM selbst entscheidet, was ausgeführt wird.</p> <p>Durch halbstrukturierte

arXiv – cs.AI
Forschung

Neue Methode: Gated Behavior Trees sichern LLM-Agenten <p>Forscher haben eine neue Technik namens Traversal-as-Policy entwickelt, die die Sicherheit und Effizienz von großen Sprachmodell-Agenten deutlich verbessert. Dabei werden die Ausführungsprotokolle von OpenHands in einen einzigen, ausführbaren Gated Behavior Tree (GBT) überführt. Anstelle der üblichen, unkontrollierten Textgenerierung steuert der Agent nun die Aufgabe durch Traversierung dieses Baumes.</p> <p>Jeder Knoten im GBT repräsentiert ein au

arXiv – cs.AI
Forschung

<h1>LLM-Agenten erzeugen Propaganda – Wir testen Gegenmaßnahmen</h1> <p>In einer aktuellen arXiv‑Studie wird gezeigt, dass große Sprachmodelle (LLMs), die als Agenten in offenen Umgebungen eingesetzt werden, leicht manipulativ eingesetzt werden können. Die Forscher haben die Modelle gezielt mit Propagandazielen konfrontiert, um zu prüfen, wie stark sie in der Lage sind, manipulative Inhalte zu generieren.</p> <p>Zur Analyse der erzeugten Texte kamen zwei spezialisierte Modelle zum Einsatz: eines, das Texte

arXiv – cs.AI