Forschung
Zentralisierte Token‑Aggregation verbessert Transformer bei medizinischen Zeitreihen
Ein neues arXiv‑Paper stellt CoTAR vor, ein zentralisiertes MLP‑Modul, das die dezentrale Attention von Transformers ersetzt und damit die…
arXiv – cs.LG