GAM bekämpft „Kontextverfall“: Zweifach-Agenten‑Speicher übertrifft LLMs
KI‑Modelle besitzen zwar enorme Rechenleistung, doch sie haben einen überraschend menschlichen Mangel: Sie vergessen. In langen Gesprächen, komplexen Problemlösungen oder Projekten, die sich über Tage erstrecken, verliert ein KI‑Assistent den Faden. Dieses Phänomen, das Entwickler als „Kontextverfall“ bezeichnen, ist ein entscheidendes Hindernis für die Entwicklung zuverlässiger KI‑Agenten im realen Einsatz.
Ein Forschungsteam aus China und Hongkong hat eine Lösung vorgestellt: den General Agentic Memory (GAM). GAM teilt das Gedächtnis in zwei spezialisierte Rollen auf. Ein Agent erfasst sämtliche Informationen, während ein zweiter Agent exakt die relevanten Daten zum richtigen Zeitpunkt abruft. Durch diese Trennung bleibt das Modell nicht mit unnötigen Details überladen, sondern kann langfristige Zusammenhänge bewahren.
Erste Tests zeigen vielversprechende Ergebnisse. GAM kann längere Kontexte verarbeiten, ohne dass wichtige Details verloren gehen, und liefert dabei Leistungen, die herkömmliche, lange Kontext‑LLMs übertreffen. Die Technologie kommt genau zum richtigen Zeitpunkt, wenn die Branche von der reinen Prompt‑Engineering‑Phase in die umfassendere Disziplin des Kontext‑Engineerings übergeht.
Die Grundstruktur jedes großen Sprachmodells bleibt jedoch ein festes „Arbeitsgedächtnis“, das als Kontextfenster bezeichnet wird. Sobald ein Gespräch zu lang wird, werden ältere Informationen abgeschnitten, zusammengefasst oder schlicht ignoriert. Seit Anfang 2023 arbeiten Entwickler intensiv daran, diese Fenster zu vergrößern, um mehr Daten in einem Durchgang verarbeiten zu können. Ein Beispiel dafür ist die Einführung von Mistrals Mixtral 8x7B, das mit einem deutlich erweiterten Kontextfenster neue Maßstäbe setzt.