Neue Architektur: Kontinuierlicher Speicher für Langzeit-LLM-Agenten
Die Retrieval‑Augmented Generation (RAG) gilt seit einiger Zeit als Standardverfahren, um große Sprachmodelle mit Kontextwissen zu versorgen. Dabei wird das Wissen jedoch lediglich als statische Lookup‑Tabelle behandelt: Informationen bleiben unbegrenzt erhalten, die Abfrage ist schreibgeschützt und es fehlt jegliche zeitliche Kontinuität.
In der neuen Studie wird die „Continuum Memory Architecture“ (CMA) vorgestellt, die genau diese Lücken schließt. CMA speichert und aktualisiert den internen Zustand über mehrere Interaktionen hinweg. Durch persistente Speicherung, selektive Beibehaltung, assoziatives Routing, zeitliche Verkettung und die Konsolidierung in höhere Abstraktionen kann das System Wissen nicht nur abrufen, sondern auch verändern, verknüpfen und klären.
Die Autoren zeigen anhand von vier empirischen Tests – Wissensupdates, zeitliche Assoziationen, assoziatives Abrufen und kontextuelle Klarstellung – dass CMA gegenüber RAG klare Vorteile bietet. Insbesondere bei Aufgaben, die eine langfristige, dynamische Speicherverwaltung erfordern, demonstriert CMA, dass es ein notwendiges architektonisches Grundelement für Agenten mit langen Zeithorizonten ist.
Gleichzeitig werden noch offene Fragen aufgezeigt: die zusätzliche Latenz, die Gefahr von Drift im Speicher und die Herausforderung, die Entscheidungen des Systems nachvollziehbar zu machen. Diese Punkte bilden die Ausgangslage für zukünftige Forschungsarbeiten, die CMA weiter optimieren und in praxisrelevante Anwendungen integrieren wollen.