LEAP: Dynamisches Lernen zur Halluzinationsvermeidung in Sprachmodellen
Halluzinationen in großen Sprachmodellen (LLMs) stellen weiterhin ein zentrales Hindernis für deren sichere Nutzung dar. Traditionelle Ansätze zur Erkennung von Halluzinationen setzen auf fest definierte Prüfstrategien, die stark von der Qualität der Tool‑Calls abhängen. Manche Methoden greifen auf teure, proprietäre Modelle wie GPT‑4 zurück, während andere auf ein Lehrer‑Schüler‑Setup setzen und kleine Open‑Source‑Modelle durch Agent‑Tuning als Detektoren schulen. Diese Verfahren sind jedoch an starre Strategien gebunden und verlieren ihre Wirksamkeit, wenn sich die Ausführungsumgebung dynamisch ändert.