LLMs: Reflektierendes Denken entschlüsselt – Aktivierungssteuerung
In einer bahnbrechenden Studie auf arXiv wird die bislang wenig verstandene Fähigkeit großer Sprachmodelle (LLMs), ihre eigenen Überlegungen zu bewerten und zu korrigieren, genauer untersucht. Während frühere Arbeiten sich vor allem auf das Design von Prompting-Strategien oder Reinforcement‑Learning‑Zielen konzentrierten, beleuchtet die neue Arbeit die inneren Mechanismen der Reflexion.