<p>LLMs im Testzeit-Scaling: Ein Überblick über Subproblem‑Strukturen</p> <p>In der neuesten Studie von arXiv:2511.14772v1 wird ein umfassender Überblick über Techniken zur Verbesserung der Vorhersagegenauigkeit vortrainierter Large Language Models (LLMs) gegeben, indem bei der Inferenz zusätzliche Rechenressourcen eingesetzt werden. Der Fokus liegt dabei auf der Art und Weise, wie ein Problem in Teilaufgaben zerlegt wird und wie diese Teilaufgaben topologisch organisiert sind – sei es sequenziell, parallel
Anzeige