Forschung
Geometrische Attention: Neuer Operator-Ansatz für Transformer
Die jüngste Veröffentlichung auf arXiv (2601.11618v1) stellt „Geometric Attention“ (GA) vor – einen völlig neuen Rahmen, der die Funktionsw…
arXiv – cs.LG