Neues Framework: Coarse-to-Fine Grounded Memory verbessert LLM-Agentenplanung
Die jüngsten Fortschritte bei großen Sprachmodellen (LLMs) haben das Interesse an LLM‑basierten Agenten für komplexe Planungsaufgaben stark erhöht. Um die teure Agenten‑Schulung zu umgehen, setzen viele Studien auf Speichermechanismen, die das Modell mit Offline‑Erfahrungen oder Online‑Trajektorien ergänzen. Diese bisherigen Ansätze beschränken sich jedoch meist auf einen einzigen Granularitätsgrad, der durch die Qualität der gesammelten Daten begrenzt ist. Das führt zu eingeschränkter Wissensvielfalt und weniger flexiblen Planungsstrategien.
Das neue Konzept „Coarse-to-Fine Grounded Memory“ (CTFGM) löst dieses Problem, indem es einen mehrstufigen Speicheraufbau nutzt, der sowohl grobe als auch feine Informationen integriert. Zunächst werden Umgebungsdaten in grobe Fokuspunkte zerlegt, die die Sammlung von Erfahrungen in Trainingsaufgaben steuern. Anschließend werden aus jeder Erfahrung hybride, handlungsrelevante Tipps extrahiert und im Speicher abgelegt.
Während der Inferenz greift CTFGM auf die relevanten Erfahrungen und Tipps zurück, um die Planung zu unterstützen. Bei unerwarteten Umweltanomalien kann das LLM die aktuelle Situation in feine Schlüsselinformationen zerlegen, was eine flexible Selbst‑Frage‑Antwort‑Reflexion und Plankorrektur ermöglicht. So wird die Anpassungsfähigkeit an unterschiedliche Szenarien deutlich erhöht.
Dieses innovative Framework zeigt, wie ein mehrstufiger, auf LLM abgestimmter Speicher die Leistungsfähigkeit von Agenten in komplexen Planungsaufgaben nachhaltig steigern kann, ohne auf aufwändige Trainingsprozesse angewiesen zu sein.