Automatisierte Mehrfachangriffe auf LLMs: Neue Studie zeigt Schwachstellen
In einer wegweisenden Untersuchung wurden Multi‑Turn‑Angriffe auf große Sprachmodelle (LLMs) systematisch analysiert. Diese Angriffe nutzen psychologische Prinzipien wie das „Foot‑in‑the‑Door“-Verfahren, bei dem ein kle…