Forschung
LoRA-Parameter: Lernrate skaliert je nach Rank – Transfer zu vollem Finetuning
Low‑Rank Adaptation (LoRA) bleibt ein beliebtes Werkzeug, um große Modelle mit wenigen zusätzlichen Parametern zu verfeinern. Trotz des ger…
arXiv – cs.LG