Forschung
CoA-LoRA: LoRA-Anpassung für quantisierte LLMs ohne erneutes Fine‑Tuning
Mit der stetig wachsenden Größe vortrainierter Sprachmodelle wird die effiziente Nutzung auf Edge‑Geräten immer wichtiger. Die neueste Arbe…
arXiv – cs.LG