Autonome Code-Agenten enthüllen System-Prompts: Neue Sicherheitslücke entdeckt
Autonome Code-Agenten, die auf großen Sprachmodellen basieren, revolutionieren die Software- und KI-Entwicklung durch Tool‑Nutzung, langfristiges Denken und selbstgesteuerte Interaktion. Doch diese Autonomie birgt ein bislang unerkannteres Sicherheitsrisiko: Agenten erweitern die Angriffsfläche von LLMs, indem sie systematisch versteckte System‑Prompts auslesen, die das Verhalten der Modelle steuern.