LLM‑Side‑Channel‑Angriff enthüllt Gesprächsinhalte trotz Verschlüsselung
Microsoft‑Forscher haben einen neuen Angriff auf Sprachmodelle entdeckt, der es Angreifern ermöglicht, die Themen zu erraten, über die man mit einem LLM spricht – selbst wenn die Daten verschlüsselt sind. Der Angriff nutzt seitliche Kanäle, um Kontextinformationen zu extrahieren, und zeigt, dass die Verschlüsselung zwar den Inhalt schützt, aber nicht die Gesprächsintention.
Die Untersuchung deckte auf, dass Modelle einiger Anbieter – darunter Anthropic, AWS, DeepSeek und Google – bislang keine Patches gegen diese Schwachstelle erhalten haben. Das bedeutet, dass sowohl private Nutzer als auch Unternehmen, die LLM‑basierte Kommunikation einsetzen, einem erheblichen Risiko ausgesetzt sind.
Microsoft rät daher dringend dazu, die Sicherheitseinstellungen zu überprüfen und gegebenenfalls zusätzliche Schutzmaßnahmen zu implementieren, um die Vertraulichkeit von Gesprächen in der Cloud zu gewährleisten.