Forschung arXiv – cs.LG

Endless Terminals: Skalierbare RL-Umgebungen für Terminal-Agenten

In der Forschung zu selbstverbessernden Agenten stellen Umgebungen häufig die größte Hürde dar. Aktuelle Terminal-Benchmarks wurden primär zur Bewertung entwickelt und bieten nicht die Skalierbarkeit, die für das Traini…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In der Forschung zu selbstverbessernden Agenten stellen Umgebungen häufig die größte Hürde dar.
  • Aktuelle Terminal-Benchmarks wurden primär zur Bewertung entwickelt und bieten nicht die Skalierbarkeit, die für das Training von Reinforcement‑Learning‑Modellen nötig i…
  • Die neue Initiative Endless Terminals liefert dafür eine vollständig autonome Pipeline, die ohne menschliche Annotationen Aufgaben im Terminalbereich erzeugt.

In der Forschung zu selbstverbessernden Agenten stellen Umgebungen häufig die größte Hürde dar. Aktuelle Terminal-Benchmarks wurden primär zur Bewertung entwickelt und bieten nicht die Skalierbarkeit, die für das Training von Reinforcement‑Learning‑Modellen nötig ist. Die neue Initiative Endless Terminals liefert dafür eine vollständig autonome Pipeline, die ohne menschliche Annotationen Aufgaben im Terminalbereich erzeugt.

Die Pipeline besteht aus vier Schritten: Zunächst werden vielfältige Aufgabenbeschreibungen generiert, anschließend werden containerisierte Umgebungen erstellt und validiert, danach werden Abschlussprüfungen erzeugt und schließlich Aufgaben auf Lösbarkeit geprüft. Aus diesem Prozess resultieren 3.255 Aufgaben, die Bereiche wie Dateiverwaltung, Log‑Management, Datenverarbeitung, Skripting und Datenbankoperationen abdecken.

Mit einem einfachen Reinforcement‑Learning‑Setup – Vanilla PPO, binäre Episodenbelohnungen und ein minimaler Interaktionsloop ohne Retrieval, Multi‑Agenten‑Koordination oder spezielle Tools – wurden Agenten trainiert. Die Ergebnisse sind beeindruckend: Auf einem hold‑out‑Dev‑Set stieg die Leistung von Llama‑3.2‑3B von 4,0 % auf 18,2 %, Qwen2.5‑7B von 10,7 % auf 53,3 % und Qwen3‑8B‑openthinker‑sft von 42,6 % auf 59,0 %.

Diese Fortschritte übertragen sich auch auf menschlich kuratierte Benchmarks. Auf TerminalBench 2.0 verbesserte sich Llama‑3.2‑3B von 0,0 % auf 2,2 %, Qwen2.5‑7B von 2,2 % auf 3,4 % und Qwen3‑8B‑openthinker‑sft von 1,1 % auf 6,7 %. In allen Fällen übertrafen die Modelle Ansätze mit komplexeren agentischen Strukturen. Die Studie zeigt eindeutig, dass ein einfaches RL-Setup bei ausreichend skalierbaren Umgebungen große Erfolge erzielen kann.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

selbstverbessernde Agenten
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Endless Terminals
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Reinforcement Learning
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen