Prompt‑Injection‑Angriffe: Was sie sind und wie man sie verhindert
Große Sprachmodelle wie ChatGPT und Claude sind dafür konzipiert, Nutzereingaben zu befolgen. Wenn sie jedoch Befehle ohne Prüfung ausführen, entsteht eine kritische Schwachstelle. Angreifer nutzen sogenannte Prompt‑Injection, um versteckte Anweisungen in die Eingabe einzuschleusen – ein Verfahren, das dem bekannten SQL‑Injection bei Datenbanken sehr ähnlich ist.
Durch Prompt‑Injection können die Modelle manipuliert werden, sodass sie schädliche oder irreführende Antworten liefern. Die Gefahr besteht darin, dass Nutzer nicht erkennen, dass ihre Eingaben von einem Angreifer verändert wurden, und dadurch falsche Informationen erhalten.
Experten empfehlen, Eingaben sorgfältig zu validieren und zusätzliche Sicherheitsmechanismen einzubauen, um Prompt‑Injection zu erkennen und zu verhindern. Durch solche Maßnahmen lässt sich die Integrität der Sprachmodelle schützen und das Risiko von Fehlverhalten minimieren.