Neues Modell verbindet EEG-Signale mit interpretierbarer Emotionsanalyse
Wissenschaftler haben ein bahnbrechendes System namens E^2-LLM entwickelt, das Gehirnströme aus der Elektroenzephalographie (EEG) nutzt, um Emotionen präzise zu erkennen und gleichzeitig verständliche Erklärungen zu liefern. Durch die Kombination eines vortrainierten EEG‑Encoders mit einem Qwen‑basierten großen Sprachmodell (LLM) schafft das System eine Brücke zwischen physiologischen Signalen und natürlicher Sprache.
Der Ansatz verwendet ein mehrstufiges Trainingsverfahren: zunächst wird das Modell auf emotionsbezogene Merkmale vortrainiert, anschließend erfolgt die Ausrichtung zwischen den EEG‑ und Sprachmodalitäten, und schließlich wird es mit Anweisungen und „Chain‑of‑Thought“-Logik feinjustiert. Diese Pipeline ermöglicht nicht nur die Klassifizierung von sieben Grundemotionen, sondern auch komplexe Mehrfachaufgaben und das Verständnis von Szenarien ohne vorherige Beispiele.
In Tests zeigte E^2-LLM herausragende Leistungen bei der Emotionsklassifikation. Größere Varianten des Modells erreichten dabei eine noch höhere Zuverlässigkeit und überlegene Zero‑Shot‑Generalisation, wenn es um anspruchsvolle logische Aufgaben ging. Das Ergebnis unterstreicht, dass die Skalierung von Modellen sowohl die Erkennungsgenauigkeit als auch die interpretierbare emotionale Analyse verbessert – ein bedeutender Fortschritt für die Affective‑Computing‑Forschung.