Stackelberg-Spiel optimiert Reward-Shaping für LLM-Alignment
Neues Forschungsergebnis aus dem arXiv-Preprint Reward Shaping for Inference-Time Alignment: A Stackelberg Game Perspective zeigt, wie man die Belohnungsmodelle für große Sprachmodelle (LLMs) unter Berücksichtigung von KL-Regularisierung optimal gestaltet. Durch die Analyse des Problems als Stackelberg-Spiel wird deutlich, dass herkömmliche Methoden, die das Belohnungsmodell direkt aus Nutzervorlieben ableiten, nicht die bestmögliche Nutzerzufriedenheit erreichen. Die KL-Regularisierung führt dazu, dass das Modell Vorurteile aus der Basis-Policy übernimmt, die im Widerspruch zu den tatsächlichen Präferenzen der Nutzer stehen.