Neues Framework: Coarse-to-Fine Grounded Memory verbessert LLM-Agentenplanung
Die jüngsten Fortschritte bei großen Sprachmodellen (LLMs) haben das Interesse an LLM‑basierten Agenten für komplexe Planungsaufgaben stark erhöht. Um die teure Agenten‑Schulung zu umgehen, setzen viele Studien auf Speichermechanismen, die das Modell mit Offline‑Erfahrungen oder Online‑Trajektorien ergänzen. Diese bisherigen Ansätze beschränken sich jedoch meist auf einen einzigen Granularitätsgrad, der durch die Qualität der gesammelten Daten begrenzt ist. Das führt zu eingeschränkter Wissensvielfalt und weniger flexiblen Planungsstrategien.