Neues generatives Gedächtnis: GSW verbessert RAG um 20 %
Large Language Models (LLMs) stoßen bei der Verarbeitung langer Texte an ihre Grenzen: Die meisten Dokumente überschreiten die begrenzte Kontextfenstergröße, und die Leistung sinkt, sobald die Sequenzlänge wächst. Um dieses Problem zu lösen, greifen Forscher auf externe Gedächtnis‑Frameworks zurück.