Erklärbare Graphenrepräsentationen durch Musteranalyse – neues GNN-Modell

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In der Forschung zu erklärbarer künstlicher Intelligenz (XAI) gewinnt die Transparenz von Graphenmodellen zunehmend an Bedeutung. Während bisherige Studien sich vorwiegend auf modell- oder instanzbezogene Erklärungen konzentrierten, fehlt bislang ein klarer Blick auf die Informationsgehalte, die Graphenrepräsentationen tatsächlich erfassen. Das neue Verfahren PXGL-GNN adressiert diese Lücke, indem es Graphenrepräsentationen auf Basis von Musteranalysen erlernt und gleichzeitig erklärt.

Der Ansatz basiert auf der Idee von Graphkerneln, die Graphähnlichkeiten durch das Zählen von Teilstrukturen in definierten Mustern bestimmen. PXGL-GNN beginnt damit, zufällig Teilgraphen verschiedener Muster zu sampeln. Für jedes Muster wird anschließend eine eigene Repräsentation gelernt, die anschließend zu einer Gesamtrepräsentation des gesamten Graphen zusammengeführt wird. Die Kombination erfolgt über eine gewichtete Summe, wobei die Gewichte die jeweilige Bedeutung des Musters für die finale Repräsentation widerspiegeln. Auf diese Weise entsteht ein erklärbarer Vektor, der sowohl strukturelle als auch, falls vorhanden, attributuelle Informationen berücksichtigt.

Die Autoren liefern zudem theoretische Analysen zu Robustheit und Generalisierung des Modells. In umfangreichen Experimenten mit realen Datensätzen demonstrieren sie, dass PXGL-GNN nicht nur leistungsfähig, sondern auch interpretierbar ist. Im Vergleich zu mehreren etablierten Baselines erzielt das Verfahren in sowohl überwachten als auch unüberwachten Lernaufgaben konsistente Verbesserungen, während es gleichzeitig Einblicke in die entscheidenden Graphmuster bietet, die die Modellleistung bestimmen.

Ähnliche Artikel