LVLMs erkennen versteckten Schaden nicht – neue Studie zeigt Wahrnehmungslücke
Large Vision‑Language‑Models (LVLMs) werden zunehmend eingesetzt, um multimodale Inhalte zu prüfen, die potenziell schädlich sind. In der Praxis sind solche Inhalte jedoch oft geschickt getarnt – etwa in Memes oder Bildern mit eingebetteten Texten – sodass sie die üblichen Erkennungsmechanismen umgehen.