Forschung
ICON: Schutz gegen indirekte Prompt-Injection bei Agenten
Large Language Model (LLM)-Agenten sind anfällig für indirekte Prompt-Injection (IPI)-Angriffe, bei denen bösartige Anweisungen in abgerufe…
arXiv – cs.AI