Forschung
LVLMs erkennen versteckten Schaden nicht – neue Studie zeigt Wahrnehmungslücke
Large Vision‑Language‑Models (LVLMs) werden zunehmend eingesetzt, um multimodale Inhalte zu prüfen, die potenziell schädlich sind. In der P…
arXiv – cs.AI