SEAL erklärt Moleküle fragmentweise – mehr Transparenz in GNNs
Graph Neural Networks (GNNs) haben sich als äußerst leistungsfähig bei der Vorhersage molekularer Eigenschaften erwiesen, indem sie die komplexe Struktur von Molekülen in Graphenform nutzen. Ihre „Black‑Box“-Natur erschwert jedoch die Interpretation der Ergebnisse, was insbesondere in sensiblen Bereichen wie der Wirkstoffentwicklung oder Materialforschung ein Hindernis darstellt.
Mit dem neuen Modell SEAL (Substructure Explanation via Attribution Learning) wird dieses Problem angegangen. SEAL zerlegt ein Molekül in chemisch sinnvolle Fragmente und bewertet deren kausalen Einfluss auf die Vorhersage. Durch die gezielte Reduktion des Nachrichtenflusses zwischen den Fragmenten wird die Korrelation zwischen den Fragmentbeiträgen und den Modellvorhersagen deutlich verbessert.
In umfangreichen Tests – sowohl auf synthetischen Benchmarks als auch auf realen molekularen Datensätzen – übertrifft SEAL bestehende Erklärungsansätze in quantitativen Attributionsmetriken und in der Übereinstimmung mit menschlicher Intuition. Eine Nutzerstudie unter Fachleuten bestätigt, dass die Erklärungen von SEAL intuitiver und vertrauenswürdiger wirken.
SEAL verbindet somit hohe Vorhersagegenauigkeit mit nachvollziehbarer Interpretierbarkeit und eröffnet damit neue Möglichkeiten für transparente und handlungsorientierte molekulare Modellierung.