Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Retrieval-Augmented Generation”
Forschung

<h1>Higgs-RAG: Vollständige Optimierung für Unternehmens‑Retrieval‑Generierung</h1> <p>Die Integration von Large Language Models (LLMs) in unternehmensweite Wissensmanagement‑Systeme wird durch das Retrieval‑Augmented Generation (RAG)-Paradigma vorangetrieben. Dabei wird die parametrierte Gedächtnis‑Kapazität durch externe, nicht‑parametrische Daten ergänzt. Der Sprung von Prototyp zu produktionsreife RAG‑Systeme bleibt jedoch durch drei zentrale Probleme blockiert: niedrige Abruf‑Präzision bei komplexen An

arXiv – cs.AI
Forschung

<h1>HugRAG: Hierarchisches Kausalitätsmodell verbessert Retrieval-augmented Generation</h1> <p>Die neueste Veröffentlichung auf arXiv (2602.05143v1) präsentiert HugRAG, ein innovatives Framework, das die Art und Weise, wie Wissen in graphbasierten Retrieval-augmented Generation (RAG)-Systemen organisiert wird, grundlegend überdenkt. Durch die Einführung von kausalen Gate-Mechanismen über hierarchische Module adressiert HugRAG die Schwächen bisheriger Ansätze, die sich zu stark auf oberflächliche Knotenerken

arXiv – cs.AI
Forschung

<p>LLMs folgen Heuristiken: Retrieval-Augmented Generation im Fokus</p> <p>Eine neue Studie aus dem arXiv-Repository beleuchtet, wie große Sprachmodelle (LLMs) in Retrieval-Augmented Generation (RAG)-Systemen mit widersprüchlichen Beweismaterialien umgehen. Trotz der weit verbreiteten Nutzung von RAG bleibt unklar, ob ein Modell eine Antwort aufgrund starker Fakten, eigener Vorannahmen oder häufiger Wiederholungen liefert.</p> <p>Zur Klärung wurde das Dataset <em>GroupQA</em> entwickelt, das 1 635 kontrover

arXiv – cs.AI
Forschung

<h1>Embedding-basierte Halluzinations-Erkennung in RAG-Systemen: Grenzen der semantischen Illusion</h1> <p>Retrieval-Augmented Generation (RAG)-Systeme bleiben trotz der Einbindung von Suchergebnissen anfällig für Halluzinationen. Aktuelle Erkennungsansätze stützen sich vor allem auf semantische Ähnlichkeit und Natural Language Inference (NLI), doch ihre fundamentalen Grenzen wurden bislang nicht systematisch untersucht.</p> <p>In einer neuen Studie wenden die Autoren die Konfidenzvorhersage (conformal pred

arXiv – cs.LG