RL‑gestützte Agenten verbessern sich selbst mit einer Skill‑Bibliothek
In einer neuen Studie von arXiv (2512.17102v1) wird gezeigt, wie Reinforcement‑Learning (RL) Agenten, die auf großen Sprachmodellen (LLM) basieren, ihre Fähigkeiten kontinuierlich erweitern können. Der Ansatz nutzt eine Skill‑Bibliothek, in der Agenten neue Fertigkeiten lernen, prüfen und einsetzen können, anstatt sich ausschließlich auf LLM‑Prompting zu verlassen.
Das vorgestellte Framework, Skill Augmented GRPO for self‑Evolution (SAGE), integriert Skills systematisch in den Lernprozess. Durch die „Sequential Rollout“-Methode werden Agenten in einer Kette ähnlicher Aufgaben eingesetzt. Dabei sammeln sich aus vorherigen Aufgaben generierte Skills in der Bibliothek und stehen für nachfolgende Aufgaben zur Verfügung. Zusätzlich wird ein Skill‑integriertes Belohnungssystem eingeführt, das die ursprünglichen Ergebnis‑Belohnungen ergänzt und die Skill‑Generierung sowie -Nutzung verbessert.
Experimentelle Tests auf der AppWorld‑Plattform zeigen, dass SAGE bei einem feinabgestimmten Modell mit Expertenwissen die Szenario‑Zielerreichung um 8,9 % steigert, gleichzeitig 26 % weniger Interaktionsschritte benötigt und 59 % weniger Tokens erzeugt. Damit übertrifft SAGE bestehende Methoden sowohl in Genauigkeit als auch in Effizienz und demonstriert, wie RL Agenten selbstständig und nachhaltig lernen können.