CoT‑Länge spiegelt Problemlaufzeit nicht zuverlässig wider
In einer neuen Studie wird die weit verbreitete Annahme hinterfragt, dass längere „Chain‑of‑Thoughts“ (CoTs) bei Sprachmodellen automatisch auf ein höheres Maß an Problemlösungskomplexität hinweisen. Forscher haben Transformer‑Modelle von Grund auf neu trainiert, um die Zwischenschritte des A*‑Suchalgorithmus zu reproduzieren – ein Verfahren, bei dem die Anzahl der Operationen exakt die Schwierigkeit eines Labyrinth‑Problems angibt.