PRAXIS: Echtzeit‑Lernmechanismus für KI‑Agenten verbessert Web‑Browsing‑Performance
Die neueste Veröffentlichung von Forschern auf arXiv präsentiert PRAXIS – einen schlanken, nachtrainierten Lernmechanismus, der KI‑Agenten in Echtzeit ermöglicht, aus ihren eigenen Erfahrungen zu lernen. Durch das Speichern der Konsequenzen von Aktionen und das Abgleichen von Umwelt‑ und internen Zuständen aus vergangenen Episoden kann PRAXIS sofort passende Beispiele abrufen und so die Entscheidungsfindung des Agenten verfeinern.
Im Gegensatz zu herkömmlichen LLM‑Agenten, die nach dem Training keine neuen prozeduralen Kenntnisse erwerben, nutzt PRAXIS ein dynamisches Retrieval-System. Es sucht nach vergangenen Zustands‑Aktions‑Ergebnis‑Exemplaren, die dem aktuellen Szenario entsprechen, und integriert diese in die aktuelle Aktionsauswahl. Dieser Ansatz erzeugt exemplarische Lernbeispiele in Echtzeit, ohne dass zusätzliche Trainingsschritte erforderlich sind.
Die Methode wurde auf dem REAL Web‑Browsing Benchmark getestet und zeigte signifikante Verbesserungen in der Aufgabenerfüllung, der Zuverlässigkeit und der Kosten‑Effizienz – und das über verschiedene Basis‑Modelle hinweg. PRAXIS steigert die Genauigkeit der Aufgabenabschlüsse und reduziert gleichzeitig die Rechenkosten, indem es gezielt auf bereits erlebte Situationen zurückgreift.
Darüber hinaus liefert die Studie erste Hinweise darauf, dass PRAXIS auch bei bislang unbekannten Aufgaben in ähnlichen Umgebungen gut generalisiert. Das bedeutet, dass Agenten nicht nur ihre bisherigen Erfahrungen nutzen, sondern auch flexibel auf neue Herausforderungen reagieren können.
Insgesamt demonstriert PRAXIS, wie KI‑Agenten in sich schnell verändernden, zustandsabhängigen Umgebungen praktisch eingesetzt werden können. Durch die Fähigkeit, neue Prozeduren effektiv zu erlernen, eröffnet PRAXIS neue Möglichkeiten für die realweltliche Anwendung von KI‑Agenten in Bereichen wie Web‑Navigation, Automatisierung und mehr.