SOCKET: Soft Collision Kernel für sparsames Attention – Mehr Durchsatz
Die Skalierung großer Sprachmodelle hängt stark davon ab, wie effizient lange Kontexte verarbeitet werden können. Bei der autoregressiven Dekodierung dominiert die Attention den Rechenaufwand, weshalb sparsames Attention eine zentrale Rolle spielt. SOCKET, ein neuer Ansatz, nutzt eine „Soft Collision Kernel“ Technik, um die Auswahl relevanter Tokens bei der Inferenz zu optimieren.