Sep, 2024
自适应步长的梯度下降在四阶增长下几乎线性收敛
Gradient descent with adaptive stepsize converges (nearly) linearly
under fourth-order growth
TL;DR本研究解决了梯度下降的线性收敛依赖于函数在最小值附近 quadratic 增长的普遍看法,证明了在四阶增长条件下梯度下降仍然可以实现局部(几乎)线性收敛。提出的自适应步长基于一种有趣的分解定理,对于这类平滑函数,最优解周围形成的“山谷”结构保障了快速收敛。此工作对矩阵感知、分解及超参数化单神经元学习等问题提供了理论与算法的应用示例。