Forschung
Sparse‑Orthogonal LoRA: 73 % weniger Kommunikation im dezentralen Federated Learning
In einer neuen Studie wird gezeigt, wie mobile Geräte mit unterschiedlichen Aufgaben‑Datensätzen gemeinsam ein großes Sprachmodell (LLM) ve…
arXiv – cs.LG