LLM‑Sicherheitslücke: Echtzeit‑Erkennung von Sleeper‑Agents via semantische Drift
In der KI‑Sicherheit gibt es ein neues Problem: sogenannte „Sleeper‑Agents“ – Backdoors, die in großen Sprachmodellen (LLMs) versteckt bleiben und erst unter bestimmten Einsatzbedingungen aktiv werden. Trotz intensiver…