Neue Studie deckt Datenschutzrisiken bei synthetischem Netzwerkverkehr auf
Eine neue Veröffentlichung auf arXiv (ID 2511.20497v1) untersucht, wie viel sensible Information aus synthetisch erzeugtem Netzwerkverkehr herausgefunden werden kann. Die Autoren stellen fest, dass generative Modelle zwar Datenmangel ausgleichen, aber nicht automatisch datenschutzfreundlich sind.
Zur Messung der Privatsphäre wurden umfassende Metriken entwickelt, die klassische Angriffe wie Membership‑Inference‑Attacks (MIA) mit netzwerkspezifischen Identifikatoren kombinieren. Durch systematische Tests verschiedener Modellarchitekturen konnten die Forscher erhebliche Unterschiede in der Anfälligkeit feststellen.
Die Ergebnisse zeigen, dass MIA-Erfolge zwischen 0 % und 88 % liegen und bis zu 100 % der Netzwerk‑Identifiers aus dem generierten Traffic extrahiert werden können. Besonders stark beeinflussen die Vielfalt der Trainingsdaten und die Passgenauigkeit des Modells die Angriffserfolge.
Die Studie liefert konkrete Handlungsempfehlungen für Entwickler, um generative Modelle so zu gestalten, dass sie die Privatsphäre minimieren. Damit wird ein wichtiger Schritt in Richtung sicherer synthetischer Netzwerkverkehrs‑Generierung unternommen.