LLM‑Gewichte komprimieren: Low‑Rank‑Tensor‑Approximation mit Cosine Lanczos
Die neuesten Fortschritte in großen Sprachmodellen (LLMs) haben die Leistungsfähigkeit in vielen NLP‑Aufgaben revolutioniert – gleichzeitig steigen Speicherbedarf und Rechenaufwand exponentiell. Eine neue Methode, die a…