<h1>LLMs wählen Ziele anders als Menschen – Forschung warnt vor Ersatz</h1> <p>Eine neue Studie von Forschern auf arXiv zeigt, dass große Sprachmodelle (LLMs) bei der Auswahl von Zielen in offenen Aufgaben deutlich von menschlichem Verhalten abweichen.</p> <p>Die Untersuchung testete vier Top-Modelle – GPT‑5, Gemini 2.5 Pro, Claude Sonnet 4.5 und Centaur – in einem kontrollierten Lernexperiment, das aus der Kognitionswissenschaft stammt.</p> <p>Während Menschen allmählich verschiedene Ziele erkunden und dab
Anzeige