k-MIP Attention: Graph-Transformer mit linearer Speicherkomplexität
Graph-Transformer haben das Potenzial, klassische Graph-Neuronale Netze zu übertreffen, indem sie Probleme wie Oversquashing und die Modellierung langer Abhängigkeiten lösen. Ihre breite Anwendung bleibt jedoch durch di…