Forschung arXiv – cs.AI

MEMENTO: KI lernt, eigene Kontextblöcke zu komprimieren und zu nutzen

In einer bahnbrechenden Veröffentlichung präsentiert das Forschungsteam die Methode MEMENTO, die große Sprachmodelle dazu befähigt, ihre eigenen Rechenabläufe in überschaubare Blöcke zu gliedern und diese kompakt als „M…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In einer bahnbrechenden Veröffentlichung präsentiert das Forschungsteam die Methode MEMENTO, die große Sprachmodelle dazu befähigt, ihre eigenen Rechenabläufe in übersch…
  • Durch die Fokussierung auf diese Zusammenfassungen reduziert das Modell nicht nur den Speicherbedarf, sondern spart auch erheblich Rechenleistung.
  • Zur Schulung von MEMENTO wurde das OpenMementos‑Dataset veröffentlicht – ein öffentliches Korpus mit 228 000 Rechenpfaden, die aus OpenThoughts‑v3 extrahiert, segmentier…

In einer bahnbrechenden Veröffentlichung präsentiert das Forschungsteam die Methode MEMENTO, die große Sprachmodelle dazu befähigt, ihre eigenen Rechenabläufe in überschaubare Blöcke zu gliedern und diese kompakt als „Mementos“ zu speichern. Durch die Fokussierung auf diese Zusammenfassungen reduziert das Modell nicht nur den Speicherbedarf, sondern spart auch erheblich Rechenleistung.

Zur Schulung von MEMENTO wurde das OpenMementos‑Dataset veröffentlicht – ein öffentliches Korpus mit 228 000 Rechenpfaden, die aus OpenThoughts‑v3 extrahiert, segmentiert und mit Zwischensummaries versehen wurden. Ein zweistufiges Supervised Fine‑Tuning (SFT) auf diesem Datensatz erwies sich als universell einsetzbar, sowohl bei Modellen wie Qwen3, Phi‑4 als auch Olmo 3, und bei Größen von 8 B bis 32 B Parametern.

Die Ergebnisse sind beeindruckend: Die trainierten Modelle behalten ihre Spitzenleistung bei Mathematik-, Wissenschafts- und Programmieraufgaben bei, während die Spitzenkapazität des KV‑Caches um etwa 2,5‑fach reduziert wird. Durch die Erweiterung von vLLM zur Unterstützung der MEMENTO‑Inference konnten die Durchsatzraten um rund 1,75‑fach gesteigert werden, und zusätzlich ermöglicht dies die Durchführung von Reinforcement‑Learning‑Schleifen, die die Genauigkeit weiter erhöhen.

Ein weiteres Highlight der Studie ist die Entdeckung eines dualen Informationsstroms: Jede Rechenblock‑Information wird sowohl im Memento‑Text als auch in den zugehörigen KV‑Zuständen transportiert. Das Entfernen des KV‑Kanals führt zu einem Genauigkeitsverlust von 15 Prozentpunkten bei der AIME24‑Aufgabe, was die Bedeutung beider Kanäle unterstreicht.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

MEMENTO
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
OpenMementos‑Dataset
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
OpenThoughts‑v3
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen