Exclusive Self Attention steigert Transformer-Leistung
In einer kürzlich veröffentlichten Studie auf arXiv wird die neue Technik „Exclusive Self Attention“ (XSA) vorgestellt, die die Leistungsfähigkeit von Transformer-Modellen deutlich verbessert. XSA ist eine leichte Modif…