Causal-HalBench enthüllt, wie LVLMs durch Korrelationen falsche Objekte erkennen
In einer neuen Studie von arXiv:2511.10268v1 wird gezeigt, dass große Vision‑Language‑Modelle (LVLMs) häufig Objekt‑Halluzinationen erzeugen. Diese Fehler entstehen laut den Autoren vor allem durch spurious correlations, also unerwünschte Zusammenhänge, die während des Trainings entstehen, wenn stark zusammen auftretende Objekte miteinander verknüpft werden.