Forschung
VLMShield: Effizienter Schutz von VLMs vor bösartigen Prompt‑Angriffen
Vision‑Language‑Modelle (VLMs) sind zunehmend Ziel von bösartigen Prompt‑Angriffen, weil die visuelle Integration die Modell‑Alignment schw…
arXiv – cs.LG