CLOAK: Diffusion‑basierte Methode schützt Zeitreihendaten
Ein neues Verfahren namens Cloak nutzt latente Diffusionsmodelle, um Zeitreihendaten, die von Sensoren erzeugt werden, vor Angriffen zur Attributinferenz zu schützen. Durch den Einsatz von kontrastivem Lernen werden entkoppelte Repräsentationen erzeugt, die den Diffusionsprozess steuern und dabei helfen, nützliche Informationen zu bewahren, während sensible Daten verborgen bleiben.
Im Gegensatz zu bisherigen Ansätzen, die oft auf bedingte Generative Modelle mit adversarialem Training oder Mutual‑Information‑Regularisierung setzen, erfordert Cloak keine Änderungen an nachgelagerten Aufgaben. Das Verfahren ermöglicht es Anwendern, die Balance zwischen Datenschutz und Datenwert mit minimalem Retraining zu steuern, was besonders für ressourcenbeschränkte mobile IoT‑Geräte von Vorteil ist.
Umfangreiche Tests auf vier öffentlichen Zeitreihendatensätzen aus verschiedenen Sensormodalitäten sowie auf einem Datensatz von Gesichtsbildern zeigen, dass Cloak die führenden Obfuskationsmethoden übertrifft. Die Ergebnisse deuten darauf hin, dass Cloak nicht nur die Privatsphäre verbessert, sondern auch praktisch in ressourcenlimitierten Umgebungen einsetzbar ist.