Deep-Learning-Modelle revolutionieren Code-Modulierte Visuelle Evoked Potentials
Eine neue Studie aus dem arXiv-Repository präsentiert Deep‑Learning‑Architekturen, die die Erkennung von Code‑Modulated Visual Evoked Potentials (C‑VEPs) in nicht‑invasiven Brain‑Computer Interfaces (BCIs) deutlich verbessern. Durch den Einsatz von Convolutional Neural Networks (CNNs) zur Rekonstruktion von 63‑Bit‑m‑Sequenzen und Klassifikation sowie von Siamese‑Netzwerken für die Ähnlichkeits‑basierte Dekodierung übertrifft die datengetriebene Methode klassische Ansätze wie die kanonische Korrelationsanalyse (CCA).
Die Experimente wurden an 13 gesunden Erwachsenen durchgeführt, die unter Einzelziel‑Flicker‑Stimulation EEG‑Signale aufzeichneten. Die Deep‑Learning‑Modelle erreichten eine durchschnittliche Genauigkeit von 96,89 % – ein deutlicher Fortschritt gegenüber traditionellen Verfahren. Besonders hervorzuheben ist die Robustheit der Distanz‑basierten Dekodierung mit Earth‑Mover‑Distance (EMD) und konstrahiertem EMD, die gegenüber Latenzvariationen besser abschneiden als Euclidische oder Mahalanobis‑Maße.
Ein weiterer Gewinn der Studie ist die Anwendung von zeitlicher Datenaugmentation durch kleine Verschiebungen, die die Generalisierung über verschiedene Sitzungen hinweg verbessert. Das multi‑Klassen‑Siamese‑Netzwerk zeigte die beste Gesamtleistung und demonstriert damit das Potenzial von Deep‑Learning‑Architekturen für zuverlässige, Einzel‑Trial‑Dekodierung in adaptiven, nicht‑invasiven BCI‑Systemen.