ATLAS: Adaptive Agent mit Multi-LLM-Unterstützung steigert Forschungseffizienz

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die neueste Veröffentlichung auf arXiv (2602.02709v1) stellt ATLAS vor – ein adaptives, selbstentwickelndes Forschungsagentensystem, das mehrere große Sprachmodelle (LLMs) koordiniert. ATLAS kombiniert die Stärken moderner Multi‑LLM‑Agenten mit einer dynamischen Aufgabenverteilung, um die Effizienz bei komplexen, langfristigen Aufgaben zu erhöhen.

Aktuelle Multi‑LLM‑Agenten liefern zwar gute Ergebnisse bei Prompt‑Optimierung und automatisierten Problemlösungen, bleiben jedoch häufig nach dem Fein‑Tuning „eingefroren“ oder verlassen sich auf statische Präferenz‑Optimierungszyklen. Diese Ansätze stoßen bei Aufgaben mit langen Zeithorizonten an ihre Grenzen, weil sie nicht flexibel auf sich ändernde Bedingungen reagieren können.

ATLAS löst dieses Problem, indem es einen leichtgewichtigen Forschungsagenten kontinuierlich weiterentwickelt und gleichzeitig spezialisierte Unterstützungsagenten für Exploration, Hyperparameter‑Tuning und Referenzpolicy‑Management einsetzt. Durch die Aufteilung der Aufgaben bleibt der Kernagent agil und kann sich schnell an neue Anforderungen anpassen.

Im Mittelpunkt steht der Algorithmus Evolving Direct Preference Optimization (EvoDPO), der die Referenzpolicy in Phasenindexierung dynamisch aktualisiert. Die Autoren liefern zudem eine theoretische Regret‑Analyse für einen Präferenz‑basierten Kontextbandit unter Konzeptdrift, was die Robustheit des Ansatzes unterstreicht.

Experimentell wurde ATLAS an nicht‑stationären linearen Kontextbandits sowie an der Verlust‑Reweighting‑Aufgabe für die 1‑D Burgers‑Gleichung im Bereich Scientific Machine Learning getestet. In beiden Fällen zeigte sich, dass ATLAS die Stabilität und die Leistung deutlich über einem statischen Single‑Agent‑Baseline‑Modell hinaus verbessert.

Ähnliche Artikel