InstruCoT: LLMs sicher gegen Prompt‑Injection dank vielfältiger Daten
Large‑Language‑Model‑basierte Anwendungen sind heute allgegenwärtig, doch ihre Sicherheit steht unter Druck: Angreifer nutzen Prompt‑Injection (PI), um schädliche Anweisungen in die Eingabe einzuschleusen. Diese Angriff…