LLM-Agenten: Graphbasierte Erklärungen für offene Untersuchungen
Moderne Sprachmodelle glänzen in statischen Umgebungen, wo alle relevanten Informationen in ihr Kontextfenster passen. In offenen Untersuchungen, bei denen Erkenntnisse schrittweise aus riesigen, heterogenen Datenmengen gewonnen werden müssen, stoßen sie jedoch an ihre Grenzen. Die zugrunde liegende Abhängigkeitsstruktur – Interaktionen zwischen Entitäten, zusammenhängende Signale und die sich erst im Nachhinein erkennende Bedeutung einzelner Fakten – erfordert ein iteratives Sammeln und Zusammenführen von Beweisen.
Da das Kontextfenster begrenzt ist, müssen Agenten Zwischenergebnisse zusammenfassen, bevor deren Relevanz vollständig klar ist. Das erhöht das Risiko, wichtige Beweise zu verwerfen. ReAct‑basierte Agenten, die einen Retrieve‑Summarize‑Reason‑Loop nutzen, sind besonders anfällig: ihre Schlussfolgerungen hängen stark von der Reihenfolge der Exploration ab, was zu nicht deterministischen Ergebnissen führt. Obwohl die Pass‑at‑k‑Rate hoch sein kann, bleibt die Majority‑at‑k‑Rate niedrig, was auf eine erhebliche Zuverlässigkeitslücke hinweist.
Ein weiteres Problem ist, dass ReAct die semantische Analyse mit Kontrollaufgaben wie Tool‑Orchestrierung und Zustandsverfolgung verknüpft. Dadurch entstehen Ausführungsfehler und Planabweichungen, die zusätzlich den ohnehin knappen Kontext belasten. Gleichzeitig fehlt ein expliziter Mechanismus zur Überprüfung und Revision von Hypothesen, sobald neues Beweismaterial auftaucht.
Die vorgestellte Lösung formuliert die Untersuchung als abductives Denken über ein Abhängigkeitsgraphen. Das neue Framework, EoG (Explanations over Graphs), trennt die Aufgaben des Sprachmodells von der Steuerung. So kann das Modell gezielt über den Graphen nachgehen, Beweise sammeln und ihre Zusammenhänge erklären, ohne durch Tool‑Management und Zustandsverfolgung abgelenkt zu werden. Diese dezentrale Herangehensweise verspricht robustere und nachvollziehbarere Ergebnisse bei komplexen, offenen Forschungsfragen.