Neues Verfahren nutzt Manifold‑Sampling zur Erkennung von Halluzinationen in LLMs
In der Welt der großen Sprachmodelle (LLMs) ist das Phänomen der Halluzination – das Erzeugen von faktisch falschen oder nicht belegbaren Inhalten – ein zentrales Problem. Frühere Ansätze haben sich auf Dekodierungsstrategien, Retrieval‑Augmentation oder supervised Fine‑Tuning konzentriert, während neuere Studien zeigen, dass die Auswahl von In‑Context‑Learning‑Demonstrationen (ICL) die Faktenverlässlichkeit stark beeinflussen kann.