Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Wahlen”
Forschung

<h1>LLMs wählen Ziele anders als Menschen – Forschung warnt vor Ersatz</h1> <p>Eine neue Studie von Forschern auf arXiv zeigt, dass große Sprachmodelle (LLMs) bei der Auswahl von Zielen in offenen Aufgaben deutlich von menschlichem Verhalten abweichen.</p> <p>Die Untersuchung testete vier Top-Modelle – GPT‑5, Gemini 2.5 Pro, Claude Sonnet 4.5 und Centaur – in einem kontrollierten Lernexperiment, das aus der Kognitionswissenschaft stammt.</p> <p>Während Menschen allmählich verschiedene Ziele erkunden und dab

arXiv – cs.AI
Aktuell

Sind Sie für die KI-Ära „Agentisch“ genug?<br/><p>Silicon Valley hat KI‑Coding‑Agenten entwickelt, die die meisten Routineaufgaben übernehmen können. Der wahre Wettbewerbsvorteil liegt nun nicht mehr in der Programmierung selbst, sondern darin, die richtigen Aufgaben für diese Agenten auszuwählen und zu steuern. Wer heute die Fähigkeit besitzt, die richtigen Fragen zu stellen und die Agenten gezielt einzusetzen, wird in der Technologiebranche die wertvollste Rolle einnehmen.</p>

Wired – AI (Latest)
Forschung

HiPER: Hierarchisches RL mit expliziter Kreditzuweisung verbessert LLM-Agenten<br/><p>Die neue Methode HiPER löst ein zentrales Problem bei der Nutzung von großen Sprachmodellen (LLMs) als interaktive Agenten: In Aufgaben mit langen Entscheidungsfolgen und spärlichen, verzögerten Belohnungen ist es schwierig, die Verantwortung für einzelne Aktionen korrekt zuzuordnen. Traditionelle Reinforcement‑Learning‑Ansätze behandeln LLMs als flache Richtlinien, die bei jedem Schritt nur eine Aktion wählen. Dadurch mus

arXiv – cs.LG
Forschung

<p>LLMs können Meme-Antworten nicht perfekt auswählen – neue Studie zeigt Lücken</p> <p>Eine neue Arbeit aus dem Bereich der Web‑Science stellt die Aufgabe „Meme‑Reply‑Selection“ vor und präsentiert dazu das MaMe‑Re‑Benchmark. Das Datenset umfasst 100.000 Paare aus frei lizenzierten japanischen Manga‑Panels und zugehörigen Social‑Media‑Posts, die von 2.325 unterschiedlichen Annotatoren mit insgesamt 500.000 Anmerkungen bewertet wurden.</p> <p>Die Analyse liefert drei zentrale Erkenntnisse. Erstens zeigen gr

arXiv – cs.LG