BriefGPT.xyz
Nov, 2024
在线缩放的梯度方法
Gradient Methods with Online Scaling
HTML
PDF
Wenzhi Gao, Ya-Chi Chu, Yinyu Ye, Madeleine Udell
TL;DR
本研究解决了梯度方法在在线学习中的收敛速度问题。提出了一种通过在线学习算法在每次迭代中学习缩放梯度的新框架,并为其收敛性提供了强保证。研究结果表明,该框架在平滑强凸优化中的复杂度为$O(\kappa^\star \log(1/\varepsilon))$,显著优于以往的结果,潜在影响可提高梯度方法的效率。
Abstract
We introduce a framework to accelerate the
Convergence
of gradient-based methods with
Online Learning
. The framework learns to scale the gradient at each iteration through an
→