VLMShield: Effizienter Schutz von VLMs vor bösartigen Prompt‑Angriffen
Vision‑Language‑Modelle (VLMs) sind zunehmend Ziel von bösartigen Prompt‑Angriffen, weil die visuelle Integration die Modell‑Alignment schwächt. Die bisher vorhandenen Abwehrmechanismen sind oft zu ressourcenintensiv od…