Causal-HalBench enthüllt, wie LVLMs durch Korrelationen falsche Objekte erkennen
In einer neuen Studie von arXiv:2511.10268v1 wird gezeigt, dass große Vision‑Language‑Modelle (LVLMs) häufig Objekt‑Halluzinationen erzeugen. Diese Fehler entstehen laut den Autoren vor allem durch spurious correlations…