LLM‑Gewichte komprimieren: Low‑Rank‑Tensor‑Approximation mit Cosine Lanczos
Die neuesten Fortschritte in großen Sprachmodellen (LLMs) haben die Leistungsfähigkeit in vielen NLP‑Aufgaben revolutioniert – gleichzeitig steigen Speicherbedarf und Rechenaufwand exponentiell. Eine neue Methode, die auf arXiv unter der Nummer 2601.17112v1 veröffentlicht wurde, bietet einen vielversprechenden Weg, diese Engpässe zu überwinden.