Spurensuche: Wie Sprachmodelle Aufgaben in Echtzeit verarbeiten
In der neuesten Studie von ArXiv (2509.04466v1) wird untersucht, wann und wie Sprachmodelle neue Aufgaben repräsentieren. Der Fokus liegt auf „transferfähigen“ Aufgabenrepräsentationen – Vektoren, die den Aufgabeninhalt in einem anderen Modellinstanz wiederherstellen können, selbst ohne den kompletten Prompt.