Adversariales und kooperatives Denken verbessert Retrieval-gestützte Sprachmodelle
In einer kürzlich veröffentlichten Studie auf arXiv wird ein neues Konzept vorgestellt, das große Sprachmodelle mit Retrieval-gestützter Generierung kombiniert. Das Ziel ist es, die bislang einseitige Perspektive der Modelle zu überwinden und einen tiefgreifenden, selbstkorrigierenden Denkprozess zu ermöglichen.
Der Ansatz, genannt Adversarial Reasoning RAG (ARR), setzt auf ein Reasoner-Verifier-Framework. Dabei arbeiten ein „Reasoner“, der aus abgerufenen Dokumenten Schlüsse zieht, und ein „Verifier“, der die Logik des Reasoners kritisch hinterfragt. Beide Rollen werden durch ein Prozess-bewusstes Belohnungssystem geführt, das sowohl externe Beobachtungen als auch interne Unsicherheiten berücksichtigt. So entsteht ein Feedback, das die Genauigkeit der Argumentation und die Strenge der Verifikation gleichzeitig optimiert.
Experimentelle Ergebnisse auf mehreren Benchmarks zeigen, dass ARR die Leistungsfähigkeit von Retrieval-gestützten Modellen deutlich steigert. Die Kombination aus adversarialem und kooperativem Denken eröffnet neue Möglichkeiten für komplexe, mehrstufige Problemlösungen in KI-Systemen.