<p>LLMs scheitern bei Reflexion: Echo-Phänomen und neue Lösung</p> <p>Neues Forschungsdokument aus dem arXiv zeigt, dass große Sprachmodelle (LLMs) bei komplexen Aufgaben, die über reine Mathematik hinausgehen, häufig keine neuen Einsichten während der Reflexionsphase erzeugen. Stattdessen wiederholen sie mechanisch frühere Überlegungen, ein Verhalten, das als „Echo‑Reflection“ bezeichnet wird.</p> <p>Die Autoren identifizieren zwei Hauptursachen: Erstens lässt ein unkontrollierter Informationsfluss während
Anzeige