Cross-Modal Memory Compression für effiziente Mehragenten-Debatten

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Mehragenten-Debatten können die Qualität von Argumenten steigern und Halluzinationen reduzieren, doch mit jeder Debattenrunde und jedem zusätzlichen Agenten wächst der Kontext exponentiell. Die vollständige Speicherung der gesamten Textgeschichte führt zu einem Tokenverbrauch, der häufig die maximalen Kontextlimits überschreitet und häufige Zusammenfassungen erfordert, die zusätzlichen Aufwand und Informationsverlust mit sich bringen.

Die neue Methode namens DebateOCR löst dieses Problem, indem sie lange Textspuren durch kompakte Bilddarstellungen ersetzt. Diese Bilder werden anschließend von einem speziellen Vision‑Encoder verarbeitet, der die nachfolgenden Debattenrunden konditioniert.

Durch diese cross‑modalen Kompression werden Historien, die üblicherweise Zehntausende bis Hunderttausende von Tokens umfassen, um mehr als 92 % reduziert. Das Ergebnis ist ein deutlich geringerer Rechenaufwand und schnellere Inferenzzeiten über mehrere Benchmarks hinweg.

Ein theoretischer Ansatz zeigt zudem, dass die Vielfalt der Agenten die Wiederherstellung ausgelöschter Informationen unterstützt. Zwar kann jede einzelne komprimierte Historie Details verwerfen, doch die Aggregation mehrerer komprimierter Sichtweisen ermöglicht es der kollektiven Repräsentation, mit hoher Wahrscheinlichkeit dem Informationsengpass nahe zu kommen.

Ähnliche Artikel