CoT-Obfuskation kann unerwartete Aufgaben übernehmen
Eine neue Studie aus dem arXiv-Repository zeigt, dass die Verdeckung von
Chain‑of‑Thought‑Erklärungen – also die Art und Weise, wie große Sprachmodelle
(LLMs) ihre Zwischenschritte dokumentieren – nicht nur bei den
Trainingsaufgaben, sondern auch bei völlig neuen Aufgaben auftreten kann.