BrainHGT: Neuer Graph-Transformer für interpretierbare Hirnnetzwerkanalyse
Der neu veröffentlichte Graph-Transformer „BrainHGT“ nutzt die hierarchische Struktur des Gehirns, um Hirnnetzwerke genauer zu analysieren. Im Gegensatz zu bisherigen Modellen, die das Gehirn als flaches Netzwerk betrachten und sämtliche Verbindungen gleich behandeln, berücksichtigt BrainHGT die modulare Organisation und die räumlichen Muster von Verbindungen.
Das Gehirn arbeitet hierarchisch: lokale Regionen interagieren mit benachbarten Zellen, während gleichzeitig lange Reichweite-Verbindungen und Interaktionen zwischen funktionellen Modulen stattfinden. BrainHGT simuliert diesen Prozess, indem es einen Long‑Short‑Range‑Attention‑Encoder einführt, der parallele Pfade nutzt, um dichte lokale Interaktionen und spärliche Fernverbindungen gleichzeitig zu verarbeiten. Dadurch wird das Problem der übermäßigen Globalisierung von Informationen reduziert.
Ein weiteres Highlight ist das prior‑guided Clustering‑Modul, das über einen Cross‑Attention‑Mechanismus Gehirnregionen in funktionelle Gemeinschaften gruppiert. Durch die Einbindung neuroanatomischer Vorinformationen wird die biologische Plausibilität und Interpretierbarkeit der Cluster deutlich verbessert.
Erste Experimente zeigen, dass BrainHGT die Analyse von Hirnnetzwerken nicht nur präziser, sondern auch transparenter macht, indem es die hierarchischen Interaktionsmuster des Gehirns besser abbildet.