Adversarial-VR: Testumgebung prüft Robustheit von VR‑Cybersickness‑Erkennung
Mit dem neuen Open‑Source‑Testbed Adversarial‑VR können Entwickler und Forscher die Widerstandsfähigkeit von Deep‑Learning‑basierten Cybersickness‑Erkennungssystemen unter realen Bedrohungen prüfen. Die Plattform, die in Unity realisiert wurde, füllt damit eine Lücke, denn bislang fehlte ein dediziertes Tool, um die Sicherheit solcher Modelle gegen gezielte Angriffe zu evaluieren.
Adversarial‑VR integriert zwei führende Modelle – DeepTCN und Transformer – die auf dem offenen MazeSick‑Datensatz trainiert wurden. Sie erkennen in Echtzeit die Schwere von Cybersickness und steuern gleichzeitig eine dynamische Sichtfeld‑Tunnel‑Mechanik, die das Sichtfeld des Nutzers anpasst, um Beschwerden zu mildern.
Zur Messung der Robustheit wurden drei hochmoderne Angriffsverfahren eingebunden: MI‑FGSM, PGD und C&W. Die Tests zeigen, dass diese Angriffe die Modelle erfolgreich täuschen und damit die automatisierte Minderung von Cybersickness verhindern können. Die Ergebnisse verdeutlichen, wie anfällig aktuelle Systeme sind und fordern die Entwicklung robusterer Algorithmen.
Die Testumgebung nutzt eine maßgeschneiderte VR‑Maze‑Simulation und ein HTC Vive Pro Eye Headset. Alle Code‑ und Datensätze sind frei verfügbar, sodass Entwickler weltweit die Plattform übernehmen und weiterentwickeln können. Adversarial‑VR bietet damit einen wichtigen Schritt zur Verbesserung der Sicherheit und des Nutzerkomforts in immersiven VR‑Erlebnissen.