AMA: Adaptive Memory durch Multi-Agenten-Kollaboration
Die rasante Entwicklung von Large Language Model (LLM)-Agenten hat die Notwendigkeit robuster Gedächtnissysteme für langfristige Interaktionen und komplexes Denken deutlich gemacht.
Frühere Ansätze stützten sich häufig auf starre Abrufgranularität, aufwändige Wartungsstrategien und grobe Aktualisierungsmechanismen, was zu einer dauerhaften Diskrepanz zwischen gespeicherten Informationen und den Anforderungen der Aufgaben führte und logische Inkonsistenzen förderte.
Das neue Framework AMA (Adaptive Memory via Multi-Agent Collaboration) löst diese Probleme, indem es mehrere spezialisierte Agenten koordiniert. Der Constructor und der Retriever bauen ein hierarchisches Gedächtnis auf, das die Abrufgranularität dynamisch an die Komplexität der Aufgabe anpasst.
Der Judge prüft die Relevanz und Konsistenz der abgerufenen Inhalte. Bei unzureichenden Belegen wird ein iterativer Abruf ausgelöst, bei festgestellten logischen Konflikten ruft er den Refresher an, der gezielte Aktualisierungen vornimmt oder veraltete Einträge entfernt.
Umfangreiche Tests an anspruchsvollen Langkontext-Benchmarks zeigen, dass AMA die aktuellen Spitzenmodelle deutlich übertrifft und gleichzeitig die Menge an Inkonsistenzen reduziert.