Chameleon: Adaptive Angriffe auf Bildskalierung in multimodalen KI-Systemen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Multimodale KI‑Modelle, insbesondere Vision‑Language‑Modelle (VLMs), sind heute in vielen kritischen Anwendungen wie autonomer Entscheidungsfindung und automatisierter Dokumentenverarbeitung unverzichtbar. Durch die zunehmende Skalierung dieser Systeme kommt es immer häufiger auf effiziente Vorverarbeitungspipelines an, wobei Bild‑Downscaling eine zentrale Rolle spielt.

Diese Standard‑Pre‑Processing‑Schritte bergen jedoch ein bislang wenig beachtetes Sicherheitsrisiko: Skalierungsalgorithmen können genutzt werden, um unsichtbare visuelle Prompt‑Injektionen zu verstecken. Sobald das Bild vom Modell verarbeitet wird, werden diese versteckten Anweisungen aktiv und können das Verhalten des Systems manipulieren.

Um dieses Problem zu adressieren, wurde Chameleon entwickelt – ein adaptives, agentenbasiertes Angriffssystem, das sich dynamisch an die Rückmeldungen des Zielmodells anpasst. Im Gegensatz zu statischen Angriffen optimiert Chameleon die Bildperturbationen iterativ, sodass die Angriffe auch nach dem Downscaling bestehen bleiben und die Ausführung des Modells übernehmen können.

In Tests gegen das Gemini 2.5 Flash‑Modell erzielte Chameleon einen Erfolgs­rate von 84,5 % bei unterschiedlichen Skalierungsfaktoren. Damit übertrifft es herkömmliche, statische Angriffsbaselines deutlich und demonstriert die Dringlichkeit, Skalierungsprozesse in multimodalen KI‑Systemen sicherer zu gestalten.

Ähnliche Artikel