Neues Active-Learning-Verfahren verbessert EEG-basierte Emotions-Erkennung
Die Erkennung von Emotionen aus Elektroenzephalogrammen (EEG) ist wegen der begrenzten Verfügbarkeit hochwertiger Labels, der Anfälligkeit für Artefakte und der subjektiven Natur der emotionalen Beurteilungen besonders schwierig. Traditionelle Deep‑Learning‑Modelle benötigen große Mengen sauber annotierter Daten, was in der Praxis kaum realisierbar ist.
Um diese Herausforderungen zu überwinden, wurde ein neues, Unsicherheits‑bewusstes Active‑Learning‑Framework entwickelt. Das Verfahren nutzt nicht nur die Unsicherheit des Modells, sondern prüft zusätzlich die Konsistenz zwischen EEG‑Signalen und Gesichtsbildern. Durch die Kombination beider Modalitäten kann das System besser unterscheiden, ob eine hohe Unsicherheit auf kognitive Mehrdeutigkeit oder auf sensorische Störungen zurückzuführen ist.
Ein zentrales Element ist ein Repräsentations‑Alignment‑Modul, das EEG‑ und Gesichtsdaten in einen gemeinsamen latenten Raum überführt. Dabei wird die semantische Kohärenz zwischen den Modalitäten gefördert. Abweichungen, die als Rausch‑Indikatoren interpretiert werden, werden gezielt ausgewählt und zur Rückmeldung an einen Experten (Oracle) abgefragt. Diese gezielte Rückmeldung lenkt das Netzwerk auf informative, verlässliche Beispiele und reduziert die Wirkung von fehlerhaften Labels.
Experimentelle Tests auf dem ASCERTAIN‑Datensatz zeigen, dass das Verfahren sowohl effizienter als auch robuster ist als herkömmliche Ansätze. Die Ergebnisse deuten darauf hin, dass das System ein vielversprechender, daten‑effizienter und rausch‑toleranter Ansatz für die affektive Dekodierung in Brain‑Computer‑Interface‑Systemen darstellt.