Rechenkraft statt Intuition: Warum LLMs in ToM-Tests robuster werden
Neuste Untersuchungen zeigen, dass große Sprachmodelle (LLMs) bei Tests zur Theorie des Geistes (Theory of Mind, ToM) beeindruckende Ergebnisse erzielen. Gleichzeitig haben sich LLMs, die mit Verstärkungslernen und verifizierbaren Belohnungen (RLVR) trainiert wurden, in einer Vielzahl von Benchmarks deutlich verbessert. In einer aktuellen Studie wird nun untersucht, wie sich diese „Rechenorientierten“ Modelle in ToM-Aufgaben verhalten.