The Multi-Query Paradox in Zeroth-Order Optimization
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
Neue kontinuierliche Annäherung an SGD ohne Zurücklegen: Optimierung voran
arXiv – cs.AI
•
<p>Die neue 4/δ‑Grenze liefert für LLM‑Verifikationssysteme ein solides theoretisches Fundament: Sie garantiert die Terminierung und Konvergenz jeder Iteration, solange die Fehler‑Reduktionswahrscheinlichkeit δ positiv ist. Der dazu entwickelte LLM‑Verifier‑Konvergenztheorem modelliert die Interaktion zwischen Sprachmodell und Verifikator als diskrete Zeit‑Markov‑Kette und zeigt, dass die erwartete Anzahl an Durchläufen höchstens 4/δ beträgt.</p>
arXiv – cs.LG
•
Gradient-Variation Online Adaptivity for Accelerated Optimization with H\"older Smoothness
arXiv – cs.LG
•
Heterogeneous Multi-agent Collaboration in UAV-assisted Mobile Crowdsensing Networks
arXiv – cs.LG
•
Adaptive Algorithms with Sharp Convergence Rates for Stochastic Hierarchical Optimization
arXiv – cs.LG
•
Neuer Algorithmus löst nicht-konvexe dezentrale Optimierung trotz stark schwankender Rauschen