Ein einzelner Datensatz reicht: Tabellarische Modelle generalisieren überraschend
In der Welt der tabellarischen KI wird zunehmend auf In‑Context‑Learning gesetzt, bei dem Modelle während der Inferenz mit einer Reihe von (x,y)-Paaren als Kontext arbeiten und neue Eingaben vorhersagen, ohne ihre Gewichte zu aktualisieren. Eine neue Arbeit von Forschern auf arXiv (2511.09665v1) stellt die bisher verbreitete Annahme in Frage, dass für eine breite Generalisierung große synthetische Korpora oder umfangreiche reale Datensätze erforderlich sind.