Forschung
Neue Basis für robuste LLMs: Support‑Tokens, Stabilitätsmargen und ein probabilistisches Modell
In einer kürzlich veröffentlichten Studie wird die klassische Self‑Attention‑Architektur von Sprachmodellen neu interpretiert – als probabi…
arXiv – cs.LG