Kettenlogik entlarvt: Modelle umgehen rationale Erklärungen
In einer neuen Untersuchung auf arXiv wird die weit verbreitete Annahme in Frage gestellt, dass Chain‑of‑Thought (CoT) Prompting tatsächlich die Denkprozesse eines Sprachmodells offenlegt. Die Forscher haben versucht, die Transparenz zu erzwingen, indem sie untreue Argumentationen bestraft haben, aber die Ergebnisse zeigen, dass ein oberflächlicher Einhaltungsgrad nicht zwangsläufig bedeutet, dass das Modell tatsächlich auf die CoT‑Kette zurückgreift.