Nov, 2024

在线缩放的梯度方法

TL;DR本研究解决了梯度方法在在线学习中的收敛速度问题。提出了一种通过在线学习算法在每次迭代中学习缩放梯度的新框架,并为其收敛性提供了强保证。研究结果表明,该框架在平滑强凸优化中的复杂度为$O(\kappa^\star \log(1/\varepsilon))$,显著优于以往的结果,潜在影响可提高梯度方法的效率。