Neuer Belohnungsagent Argos verbessert Reinforcement Learning bei KI-Agenten

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In einer kürzlich veröffentlichten Studie auf arXiv wird Argos vorgestellt – ein Belohnungsagent, der multimodale Reinforcement‑Learning‑Modelle für agentische Aufgaben gezielt trainiert. Argos wählt für jedes Beispiel aus einer Palette von Lehrer‑Modellen und regelbasierten Bewertungsfunktionen die passende Metrik aus und bewertet gleichzeitig die Antwortgenauigkeit, die räumlich‑zeitliche Lokalisierung von referenzierten Entitäten und Aktionen sowie die Qualität des gesamten Denkprozesses.

Durch die Kombination dieser drei Dimensionen liefert Argos fein abgestimmte Rückmeldungen, die weit über die üblichen, sparsamen Ergebnis‑Belohnungen hinausgehen. Das Ergebnis: Modelle, die mit Argos trainiert wurden, erzielen neue Bestleistungen bei einer Reihe von agentischen Aufgaben – von räumlichem Denken über die Reduzierung visueller Halluzinationen bis hin zu Robotik‑ und embodied‑AI‑Benchmarks.

Ein entscheidender Befund der Arbeit ist, dass reine Supervised‑Fine‑Tuning‑Daten nicht ausreichen: Ohne die Online‑Verifikation von Argos neigen Agenten dazu, ungrounded Lösungen zu entwickeln. Der Belohnungsagent fungiert somit als Schutzmechanismus, der die Lernschritte kontinuierlich überprüft und so stabile, verlässliche KI‑Agenten ermöglicht.

Ähnliche Artikel