More Than Memory Savings: Zeroth-Order Optimization Mitigates Forgetting in Continual Learning
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
Effiziente Langkontext-Inferenz: Write-Gated KV reduziert Speicherbedarf um bis zu 57 %
arXiv – cs.LG
•
Neues Verfahren: Posterior‑Sampling‑Coresets beschleunigen Deep‑Learning‑Training
arXiv – cs.LG
•
Neuer Ansatz sichert Integralwerte in PINNs durch Projektion
arXiv – cs.LG
•
DecoHD: Hyperdimensional Klassifikation mit extremen Speicherersparnissen
arXiv – cs.AI
•
Memory-Free Continual Learning with Null Space Adaptation for Zero-Shot Vision-Language Models
arXiv – cs.LG
•
An Ensembled Penalized Federated Learning Framework for Falling People Detection