Forschung
TwIST: Effiziente Sparsifizierung von LLMs ohne Nachbearbeitung
Mit dem neuen Framework TwIST wird die Sparsifizierung großer Sprachmodelle revolutioniert. Durch paralleles Training mehrerer Subnetzwerke…
arXiv – cs.LG