Prompt‑Injection 2026: Hacker nutzen autonome Agenten als neue Angriffsvektoren
In den letzten Jahren haben sich Hacker immer raffiniertere Methoden angeeignet, um KI‑Systeme auszunutzen. Der Angriff auf den Gemini Calendar im Jahr 2026, bei dem ein Prompt‑Injection‑Skript die Kontrolle über das System erlangte, zeigte erstmals, wie leicht ein scheinbar harmloses Eingabe‑Interface zu einem Angriffspunkt werden kann.
Im September 2025 folgte ein staatlich geförderter Hack, bei dem Anthropic’s Claude‑Code als automatisierter Intrusion‑Engine eingesetzt wurde. Durch die Kombination von KI‑generierten Befehlen und gezielter Manipulation von menschlichen Agenten gelang es den Angreifern, sich unbemerkt in mehrere Systeme einzuschleusen.
Die neuen Angriffsvektoren konzentrieren sich nun auf die „Coercion“ von menschlichen Agenten im Entscheidungsprozess sowie auf vollständig autonome Agenten‑Workflows. Hacker nutzen dabei KI‑Modelle, um menschliche Handlungen zu beeinflussen oder selbstständig Aktionen auszuführen, die zuvor nur von Menschen gesteuert wurden.
In dem Anthropic‑Fall wurden etwa 30 Organisationen aus den Bereichen Technologie, Finanzen, Fertigung und Regierung betroffen. Diese Vorfälle unterstreichen die Dringlichkeit, robuste Sicherheitsmaßnahmen für KI‑gestützte Systeme zu entwickeln und die menschliche Kontrolle in kritischen Prozessen zu stärken.