ReMe: Dynamisches Lernframework für Agenten, das Erfahrung nutzt
Ein neues Verfahren namens ReMe – kurz für „Remember Me, Refine Me“ – verspricht, die Art und Weise zu revolutionieren, wie große Sprachmodelle (LLMs) ihr Wissen speichern und nutzen. Statt lediglich neue Informationen anzuhängen, arbeitet ReMe aktiv mit den gesammelten Erfahrungen, um die Leistung von Agenten kontinuierlich zu verbessern.
ReMe setzt auf drei zentrale Mechanismen. Erstens distilliert es Erfahrungen in feine Details, indem es Erfolgsmuster erkennt, Fehlerursachen analysiert und vergleichende Erkenntnisse generiert. Zweitens passt es alte Erkenntnisse kontextabhängig an neue Situationen an, indem es ein Szenario‑sensitives Indexierungssystem nutzt. Drittens optimiert es den Speicher selbstständig, indem es gültige Erinnerungen hinzufügt und veraltete Einträge entfernt, sodass die Datenbank kompakt und hochwertig bleibt.
In umfangreichen Tests auf den Datensätzen BFCL‑V3 und AppWorld hat ReMe die bisherigen Standards im Agenten‑Speicherbereich übertroffen. Besonders auffällig ist, dass ein Qwen3‑8B-Modell, das mit ReMe ausgestattet ist, ein deutlich besseres Ergebnis erzielt als das größere, aber speicherlosen Qwen3‑14B. Dies zeigt, dass ein selbstlernender Speicher nicht nur die Leistung steigert, sondern auch die Rechenkosten senkt.
Die Entwickler haben den Code sowie die zugehörige Datenbank „reme.library“ öffentlich zugänglich gemacht, um weitere Forschungen zu fördern. ReMe stellt damit einen wichtigen Schritt in Richtung effizienter, lebenslang lernender KI‑Agenten dar.