PlugMem: Aufgabenunabhängiges Speicher-Plugin für LLM-Agenten
Langfristiges Gedächtnis ist für große Sprachmodelle (LLM), die in komplexen Umgebungen arbeiten, unverzichtbar. Bisherige Speicherlösungen sind entweder auf bestimmte Aufgaben zugeschnitten und nicht übertragbar oder sie sind Aufgabenunabhängig, aber weniger effektiv, weil sie auf rohe, wenig relevante Daten zurückgreifen und dadurch die Kontextmenge explodieren.
PlugMem löst dieses Problem, indem es ein Aufgabenunabhängiges Plugin‑Speichermodul bereitstellt, das beliebigen LLM-Agenten ohne redesign hinzugefügt werden kann. Inspiriert von Erkenntnissen der Kognitionswissenschaft werden episodische Erinnerungen in ein kompaktes, erweiterbares Wissensgraphen‑Format überführt, das explizit propositionsale und vorschreibende Kenntnisse abbildet.
Diese Struktur ermöglicht eine effiziente Abrufung und logische Verarbeitung von Aufgabenrelevanten Informationen, anstatt lange Rohtrajektorien zu durchsuchen. Im Gegensatz zu anderen graphbasierten Ansätzen wie GraphRAG behandelt PlugMem Wissen als Einheit des Zugriffs und der Organisation, nicht einzelne Entitäten oder Textfragmente.
PlugMem wurde unverändert an drei heterogenen Benchmarks getestet: langanhaltende konversationelle Frage‑Antwort, mehrstufige Wissensabrufaufgaben und Web‑Agent‑Aufgaben. Die Ergebnisse zeigen, dass PlugMem konsequent die Aufgabenunabhängigen Baselines übertrifft, sogar die aufgabenspezifischen Speicherdesigns übersteigt und dabei die höchste Informationsdichte nach einer einheitlichen informationstheoretischen Analyse erreicht.
Der Code und die Daten stehen auf GitHub zur Verfügung: https://github.com/TIMAN-group/PlugMem.