Forschung
k-MIP Attention: Graph-Transformer mit linearer Speicherkomplexität
Graph-Transformer haben das Potenzial, klassische Graph-Neuronale Netze zu übertreffen, indem sie Probleme wie Oversquashing und die Modell…
arXiv – cs.LG