Neues ANN-Modell verbessert Musikidentifikation aus Gehirnaktivität

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Wissenschaftler haben ein neues neuronales Netzwerk entwickelt, das die Identifikation von Musikstücken aus Gehirnaufzeichnungen deutlich verbessert. Das Modell nutzt dabei sowohl akustische als auch Erwartungsinformationen, die im cortex während des Musikhörens entstehen.

Frühere Studien zeigten, dass künstliche neuronale Netzwerke (ANN) die Aktivität im Gehirn nachahmen können und als Leitfaden für die Erkennung von EEG-Signalen dienen. In dieser Arbeit wird gezeigt, dass die Unterscheidung zwischen akustischen und erwartungsbasierten ANN-Representationen als Lehrziel die Leistung der EEG-basierten Musikidentifikation weiter steigert.

Durch das Vortrainieren auf die Vorhersage einer dieser beiden Repräsentationen übertrifft das Modell nicht nur nicht vortrainierte Baselines, sondern liefert auch zusätzliche Vorteile, wenn beide Repräsentationen kombiniert werden. Diese Kombination übertrifft sogar starke Ensembles, die lediglich durch unterschiedliche zufällige Initialisierungen entstehen.

Die Ergebnisse verdeutlichen, dass die Art der Lehrrepräsentation die nachgelagerte Leistung maßgeblich beeinflusst und dass das Lernen von Modellen durch neuronale Kodierung gesteuert werden kann. Das neue Erwartungsmodell, das direkt aus Rohsignalen berechnet wird, erfasst strukturelle Vorhersagen über das hinaus, was bei einfachen Merkmalen wie Onset oder Tonhöhe sichtbar ist. Damit eröffnet es neue Möglichkeiten, mehrschichtige Vorhersageprozesse bei vielfältigen Stimuli zu untersuchen und bietet eine skalierbare Basis für die Entwicklung allgemeiner EEG-Modelle, die auf corticalen Kodierungsprinzipien beruhen.