Agent0: Selbstentwickelnde Agenten ohne Daten – Tool-gestützte Logik
In der Welt der großen Sprachmodelle (LLMs) sind Agenten, die mit Reinforcement Learning (RL) trainiert werden, stark von menschlich kuratierten Daten abhängig. Diese Abhängigkeit limitiert die Skalierbarkeit und bindet die KI an menschliches Wissen. Agent0 löst dieses Problem, indem es ein vollständig autonomes Framework einführt, das leistungsfähige Agenten ohne externe Daten erzeugt.
Der Schlüssel liegt in der Mehrstufigen Co‑Evolution: Zwei Agenten, beide auf demselben Basis‑LLM aufgebaut, treten in einem symbiotischen Wettbewerb gegeneinander an. Der „Curriculum‑Agent“ erstellt fortschreitend anspruchsvollere Aufgaben, während der „Executor‑Agent“ lernt, diese zu lösen. Durch die nahtlose Integration externer Werkzeuge wird die Problemlösungsfähigkeit des Executors gesteigert, was wiederum den Curriculum‑Agenten dazu antreibt, noch komplexere, werkzeugbewusste Aufgaben zu konzipieren.
Dieses sich selbst verstärkende Zyklusmodell führt zu kontinuierlich hochwertigen Lehrplänen. In Experimenten zeigte Agent0 signifikante Verbesserungen: Das Qwen3‑8B‑Base‑Modell erzielte einen Anstieg von 18 % bei mathematischer Logik und 24 % bei allgemeinen Argumentations‑Benchmarks.
Der komplette Code ist öffentlich zugänglich unter https://github.com/aiming-lab/Agent0.