BrainStack: Neuro-MoE mit Expert-Routing für EEG-Sprachdecodierung

arXiv – cs.AI Original ≈2 Min. Lesezeit
Anzeige

Die Dekodierung sprachlicher Inhalte aus Elektroenzephalographie (EEG) ist seit langem eine Herausforderung, weil das Gehirn über verteilte und nichtlineare Strukturen verfügt. Mit BrainStack wird ein neuer Ansatz vorgestellt, der diese Komplexität adressiert und die Grenzen der aktuellen Methoden verschiebt.

BrainStack ist ein neuro‑Mixture‑of‑Experts (Neuro‑MoE) Modell, das die funktionale Architektur des Gehirns nach anatomischen Regionen aufteilt. Jede Region wird von einem spezialisierten Experten repräsentiert, der lokale neuronale Dynamiken erlernt, während ein transformerbasierter globaler Experte die Abhängigkeiten zwischen den Regionen erfasst. Durch ein lernbares Routing‑Gate werden die Experten kontextabhängig zusammengeführt, sodass nur die relevanten Fachkenntnisse für jede Situation aktiviert werden.

Um die Kohärenz zwischen den Ebenen zu fördern, führt BrainStack eine cross‑regionale Distillation ein: Der globale Experte liefert top‑down Regularisierung, die die regionalen Experten anleitet und ihre Lernprozesse harmonisiert. Dieses Zusammenspiel sorgt für ein ausgewogenes und interpretiertes Modell.

Zusätzlich wird das neue Benchmark‑Set SilentSpeech‑EEG (SS‑EEG) veröffentlicht, das über 120 Stunden EEG‑Aufnahmen von 12 Probanden mit 24 stillen Wörtern umfasst. Damit ist es das größte Datenset seiner Art und bietet eine solide Grundlage für die Weiterentwicklung von Sprach‑EEG‑Modellen.

Experimentelle Ergebnisse zeigen, dass BrainStack die aktuellen Spitzenmodelle übertrifft, sowohl in der Genauigkeit als auch in der Generalisierung über verschiedene Subjekte hinweg. Die Kombination aus funktioneller Modularität, neuro‑inspirierten Priors und adaptivem Expert‑Routing macht BrainStack zu einem wegweisenden Ansatz für skalierbare und nachvollziehbare Gehirn‑Sprach‑Decodierung.

Ähnliche Artikel