InstruCoT: LLMs sicher gegen Prompt‑Injection dank vielfältiger Daten
Large‑Language‑Model‑basierte Anwendungen sind heute allgegenwärtig, doch ihre Sicherheit steht unter Druck: Angreifer nutzen Prompt‑Injection (PI), um schädliche Anweisungen in die Eingabe einzuschleusen. Diese Angriffe sind besonders gefährlich, weil die bösartigen Befehle über verschiedene Vektoren gelangen können und sich nahtlos in den Kontext einfügen, sodass sie schwer zu erkennen sind.