LLM-gestützte Banditen: Warm-Start bis 30 % Fehler, danach schlechter
Die rasante Entwicklung großer Sprachmodelle (LLMs) eröffnet neue Wege, um Nutzerpräferenzen zu generieren und Banditen-Algorithmen frühzeitig zu „warm‑starten“. Frühere Studien haben gezeigt, dass synthetische Priors a…