Neue Studie enthüllt: Große Rechenmodelle können fehlende Infos nicht anfragen
Eine aktuelle Veröffentlichung auf arXiv (2508.11252v1) untersucht die Fähigkeit von Large Reasoning Models (LRMs), fehlende Informationen aktiv zu erfragen. Während bisherige Benchmarks die Problemlösungskompetenz von LRMs in Mathematiktests bewerten, fehlt bislang die Messung ihrer proaktiven Informationssuche – ein entscheidendes Merkmal echter intelligenter Agenten.
Die Autoren stellen ein neues Datenset vor, das zwei Arten von unvollständigen Aufgaben mit unterschiedlichen Kontexten enthält. Durch systematische Tests zeigen die Ergebnisse, dass LRMs kaum in der Lage sind, fehlende Angaben selbstständig anzufragen. Zusätzlich werden Phänomene wie „Overthinking“ und Halluzinationen identifiziert, die die Antworten der Modelle verfälschen.
Die Studie betont die Notwendigkeit, LRMs gezielt zu trainieren, damit sie nicht nur Probleme lösen, sondern auch eigenständig nach fehlenden Daten fragen können. Sie liefert damit wertvolle Einblicke für die Weiterentwicklung von Modellen mit echter, proaktiver Intelligenz und weist zugleich die Herausforderungen bei der Überwachung und Feinabstimmung dieser Fähigkeiten auf.