LLMs nach dem Training: Bessere Entscheidungsagenten durch Regret-Minimierung
Wissenschaftler haben ein neues Verfahren entwickelt, das große Sprachmodelle (LLMs) zu effektiveren Entscheidungsagenten macht. Durch die Methode „Iterative Regret‑Minimization Fine‑Tuning“ (Iterative RMFT) werden die Modelle nach dem ursprünglichen Training erneut trainiert, indem sie ihre eigenen Entscheidungswege mit geringem Regret wieder in das Modell einfließen lassen.