LLM-basierte NPCs verraten Geheimnisse – Sicherheitsrisiko bei Prompt‑Injection
In einer aktuellen Studie, die auf arXiv veröffentlicht wurde, wird untersucht, wie große Sprachmodelle (LLMs) in Videospielen eingesetzt werden, um NPCs (Nicht-Spieler-Charaktere) mit dynamischem Dialog auszustatten. Gleichzeitig werden neue Sicherheitsrisiken aufgezeigt, die aus der Integration solcher Modelle entstehen.