Selbstreflektierende Modelle: Endogenous Reprompting verbessert multimodale KI
Neue Forschung zeigt, dass multimodale KI‑Modelle zwar ein tiefes Verständnis besitzen, aber ihre eigene Generierung oft nicht optimal steuern. Das Problem, das die Autoren als „kognitives Gap“ bezeichnen, liegt darin, dass die Modelle nicht wissen, wie sie ihre Ausgaben verbessern können.
Um dieses Gap zu schließen, stellen die Forscher Endogenous Reprompting vor – einen Mechanismus, der die passive Codierung in einen aktiven, generativen Denkprozess überführt. Dabei erzeugt das Modell während der Text‑ oder Bildgenerierung selbstbeschreibende, selbstausgerichtete Beschreibungen, die als Leitfaden dienen.
Der dazugehörige Trainingsrahmen, SEER (Self‑Evolving Evaluator and Reprompter), nutzt einen zweistufigen Endogenous‑Loop. In der ersten Phase, Reinforcement Learning with Verifiable Rewards (RLVR), wird die latente Bewertungsfähigkeit des Modells durch Curriculum‑Learning aktiviert und liefert ein hochpräzises Reward‑Signal. In der zweiten Phase, Reinforcement Learning with Model‑rewarded Thinking (RLMT), wird dieses Signal verwendet, um die generative Entscheidungsstrategie zu optimieren.
Experimentelle Ergebnisse belegen, dass SEER die Genauigkeit der Bewertung, die Effizienz des Repromptings und die Qualität der generierten Inhalte deutlich über aktuelle Baselines hinaus verbessert – und das, ohne die allgemeinen multimodalen Fähigkeiten zu beeinträchtigen. Diese Fortschritte markieren einen wichtigen Schritt hin zu KI‑Systemen, die sich selbst besser verstehen und ihre Ausgaben intelligenter steuern können.