<p>LLMs folgen Heuristiken: Retrieval-Augmented Generation im Fokus</p> <p>Eine neue Studie aus dem arXiv-Repository beleuchtet, wie große Sprachmodelle (LLMs) in Retrieval-Augmented Generation (RAG)-Systemen mit widersprüchlichen Beweismaterialien umgehen. Trotz der weit verbreiteten Nutzung von RAG bleibt unklar, ob ein Modell eine Antwort aufgrund starker Fakten, eigener Vorannahmen oder häufiger Wiederholungen liefert.</p> <p>Zur Klärung wurde das Dataset <em>GroupQA</em> entwickelt, das 1 635 kontrover
Anzeige