<h1>Homogene Expertenroutierung steigert Leistung heterogener Graph-Transformer</h1> <p>Ein neuer Beitrag auf arXiv (2511.07603v1) präsentiert einen innovativen Ansatz für heterogene Graph Neural Networks (HGNNs). Traditionell werden in HGNNs Parameter an die jeweiligen Knotentypen oder Kantentypen angepasst, was die Modelle stark auf oberflächliche Labels stützt und die Übertragung von Wissen zwischen unterschiedlichen Typen erschwert.</p> <p>Die Autoren integrieren Mixture-of-Experts (MoE) – ein Konzept,

arXiv – cs.LG Original
Anzeige