WebFactory: Automatisierte Kompression von Sprachmodellwissen zu Web-Agenten
Die Entwicklung von GUI-Agenten steht bislang vor zwei großen Hindernissen: Entweder greifen sie auf unsichere, nicht reproduzierbare Live-Web-Interaktionen zurück oder sie benötigen teure, knapp vorhandene menschlich erstellte Daten und Umgebungen. Diese Ansätze konzentrieren sich zu stark auf die Menge der Daten und vernachlässigen dabei einen entscheidenden Faktor – die Effizienz, mit der ein großes Sprachmodell (LLM) sein internes Wissen in handlungsfähiges Agentenverhalten umsetzt.
Mit WebFactory wird ein völlig automatisierter, geschlossener Reinforcement‑Learning‑Pipeline vorgestellt, die das Internet‑Wissen eines LLM in kompakte, verankerte Aktionen überführt. Der Prozess umfasst die skalierbare Synthese von Umgebungen, die Erzeugung von Aufgaben, die auf dem Wissen des Modells basieren, die Sammlung von Trajektorien durch das LLM, das Training mit dekomponierten Belohnungen und eine systematische Bewertung der Agentenleistung.
Erstaunlich ist die Daten‑ und Generalisierungseffizienz des Agenten: Er wurde ausschließlich mit synthetischen Daten von nur zehn Websites trainiert und erzielt dabei Leistungen, die mit denen von Agenten vergleichbar sind, die auf der gleichen Menge menschlich annotierter Daten aus einer viel größeren Umgebungsliste trainiert wurden. Diese Überlegenheit zeigt sich sowohl in internen Offline‑ als auch in Online‑Transfer‑Benchmarks, wo der Agent das Basis‑LLM deutlich übertrifft.
Darüber hinaus liefert die Arbeit wichtige Erkenntnisse über das „Embodiment‑Potential“ verschiedener LLM‑Fundamente und eröffnet damit eine neue Bewertungsachse für Modelle. WebFactory präsentiert somit ein skalierbares und kosteneffizientes Paradigma, um passives Internetwissen in aktive, verankerte Intelligenz zu verwandeln – ein entscheidender Schritt in Richtung zukunftsfähiger Web‑Agenten.