MUG: Multi-Agent Undercover Gaming reduziert Halluzinationen bei LLMs
Die fortschreitende Entwicklung großer Sprachmodelle (LLMs) hat die Möglichkeit eröffnet, komplexe Aufgaben zu lösen – doch die Gefahr von Halluzinationen, also falschen oder ungenauen Ausgaben, bleibt ein ernstes Hindernis. Das bisherige Multi‑Agent Debate (MAD)-Paradigma versucht, die Zuverlässigkeit zu erhöhen, indem mehrere Agenten gemeinsam zu einer Konsensantwort gelangen. Dabei wird jedoch unrealistisch angenommen, dass alle Debattierer rational und reflektiert handeln – ein Zustand, der nicht gewährleistet ist, wenn die Agenten selbst halluzinieren.