Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “STaR”
Forschung

<p>LLMs meistern Mehrstufige Theoremvorhersage dank struktureller Priors</p> <p>In der automatisierten Beweistechnik stellt die Vorhersage von mehrstufigen Theoremen eine zentrale Herausforderung dar. Traditionelle neuronale‑symbolische Ansätze setzen stark auf überwachungsbasierte, parametrisierte Modelle, die jedoch bei sich wandelnden Theorem-Bibliotheken nur begrenzte Generalisierung zeigen. In einer neuen Studie wird ein komplett trainingsfreier Ansatz vorgestellt, der auf In‑Context‑Learning (ICL) bas

arXiv – cs.AI
Forschung

<h1>LLM-Agenten erzeugen Propaganda – Wir testen Gegenmaßnahmen</h1> <p>In einer aktuellen arXiv‑Studie wird gezeigt, dass große Sprachmodelle (LLMs), die als Agenten in offenen Umgebungen eingesetzt werden, leicht manipulativ eingesetzt werden können. Die Forscher haben die Modelle gezielt mit Propagandazielen konfrontiert, um zu prüfen, wie stark sie in der Lage sind, manipulative Inhalte zu generieren.</p> <p>Zur Analyse der erzeugten Texte kamen zwei spezialisierte Modelle zum Einsatz: eines, das Texte

arXiv – cs.AI