X-Node: Selbst-Erklärende GNNs steigern Transparenz in Bildklassifikation

arXiv – cs.LG Original ≈2 Min. Lesezeit
Anzeige

Graph Neural Networks (GNNs) haben in den letzten Jahren in der Computer‑Vision und der medizinischen Bildklassifikation beeindruckende Ergebnisse erzielt, bleiben jedoch oft im Dunkeln, wenn es um die Entscheidungsfindung geht. Diese Undurchsichtigkeit erschwert die Anwendung in sensiblen Bereichen wie der klinischen Diagnostik, wo nachvollziehbare Erklärungen unerlässlich sind.

Mit dem neuen Framework X‑Node wird die Erklärbarkeit von GNNs auf ein neues Level gehoben: Jeder Knoten erzeugt im Rahmen seiner Vorhersage ein eigenes, verständliches Erklärungselement. Dazu wird ein strukturierter Kontextvektor erstellt, der leicht verständliche Merkmale wie Knotengrad, Zentralität, Cluster‑Struktur, Feature‑Salienz und Etikett‑Übereinstimmung aus der lokalen Topologie codiert. Ein schlanker Reasoner‑Modul wandelt diesen Kontext in einen kompakten Erklärungsvektor um.

Der Erklärungsvektor dient drei zentralen Zwecken: Erstens wird er genutzt, um die latente Einbettung des Knotens über einen Decoder zu rekonstruieren und so die Glaubwürdigkeit der Erklärung zu sichern. Zweitens generiert er mithilfe eines vortrainierten Sprachmodells (z. B. Grok oder Gemini) eine natürliche Sprach‑Erklärung. Drittens fließt die Erklärung zurück in den Nachrichten‑Passage‑Prozess der GNN‑Architektur – ein sogenanntes „Text‑Injection“-Mechanismus –, wodurch die Netzwerke selbst von den Erklärungen profitieren.

Die Leistungsfähigkeit von X‑Node wurde an zwei Graph‑Datensätzen aus den MedMNIST‑ und MorphoMNIST‑Sammlungen getestet, wobei die Backbones GCN, GAT und GIN eingesetzt wurden. Die Ergebnisse zeigen, dass X‑Node die Klassifikationsgenauigkeit der Standard‑GNNs beibehält und gleichzeitig pro‑Knoten‑Erklärungen liefert, die sowohl treu als auch verständlich sind. Das komplette Repository ist unter https://github.com/basiralab/X-Node verfügbar.

Ähnliche Artikel