Diffusionsmodell entschlüsselt Echtzeit-Sprechen bei Aphasie
Ein neues, leichtgewichtiges Diffusionsframework ermöglicht die Echtzeit‑Entschlüsselung von imaginärem Sprechen bei Menschen mit Aphasie. Das System kombiniert einen bedingten Diffusionsencoder mit einem konvolutionellen Klassifikator, der auf individuellen EEG‑Daten aus einem koreanischen Sprachparadigma trainiert wurde.
Durch eine Dual‑Kriterien‑Early‑Stopping‑Strategie konvergiert das Modell schnell, selbst bei begrenzter Kalibrierungsdatenmenge. Dropout‑Regularisierung und gruppierte zeitliche Convolutions sorgen für stabile Generalisierung, sodass das System zuverlässig unter klinischen Bedingungen arbeitet.
Während des Online‑Betriebs werden kontinuierliche EEG‑Streams in zwei‑Sekunden‑Schiebefenstern verarbeitet, um Klassifikationswahrscheinlichkeiten zu erzeugen. Diese Wahrscheinlichkeiten steuern dynamisch visuelles und auditives Feedback, basierend auf der Decodierungszuverlässigkeit. In zwanzig Echtzeit‑Versuchen erreichte das Framework 65 % Top‑1‑ und 70 % Top‑2‑Genauigkeit, deutlich besser als die 50 % Top‑1‑Genauigkeit bei Offline‑Tests.
Die Ergebnisse zeigen, dass diffusionbasierte EEG‑Decodierung unter praktischen klinischen Bedingungen zuverlässig funktioniert. Das Modell eröffnet neue Möglichkeiten für Brain‑Computer‑Interfaces, die Menschen mit schwerem Ausdrucksstörungen in der Kommunikation unterstützen.