CoM: Leichtgewichtige Speicherkonstruktion für LLM-Agenten
Speicherlösungen sind entscheidend, damit große Sprachmodelle (LLM) dauerhaftes Wissen behalten und Entscheidungen über lange Zeiträume treffen können. Traditionell erfolgt die Speichererstellung in zwei aufwendigen Schritten: erst wird die Datenmenge in komplexe Strukturen wie Graphen überführt, anschließend wird das Modell mit einfachen Kontextanfügungen ergänzt. Diese Vorgehensweise ist nicht nur rechenintensiv, sondern liefert nur begrenzte Verbesserungen in der Genauigkeit.
Die Autoren des neuen Ansatzes, CoM (Chain-of-Memory), zeigen, dass die hohe Kostenbelastung bei gleichzeitig wenig Nutzen ein ernstes Problem darstellt. Gleichzeitig reicht die reine Kontextkonsolidierung nicht aus, um die Lücke zwischen Abrufgenauigkeit und logischem Denken zu schließen.
CoM setzt auf ein leichtgewichtiges Bauprinzip kombiniert mit einer ausgefeilten Nutzung. Durch die „Chain-of-Memory“-Mechanik werden abgerufene Fragmente zu zusammenhängenden Inferenzpfaden geordnet, die sich dynamisch weiterentwickeln. Adaptive Kürzungen entfernen störende Rauschelemente, sodass nur relevante Informationen im Speicher verbleiben.
In umfangreichen Tests auf den Benchmarks LongMemEval und LoCoMo übertrifft CoM etablierte Baselines um 7,5 % bis 10,4 % in der Genauigkeit. Gleichzeitig reduziert sich der Tokenverbrauch auf lediglich 2,7 % und die Latenz um 6 % im Vergleich zu komplexeren Speicherarchitekturen. Diese Ergebnisse deuten darauf hin, dass CoM eine vielversprechende Lösung für effiziente, leistungsfähige LLM-Agenten darstellt.