Sep, 2024
AdaGrad在非凸优化中的渐近与非渐近收敛分析:基于新停时分析的方法
Asymptotic and Non-Asymptotic Convergence Analysis of AdaGrad for
Non-Convex Optimization via Novel Stopping Time-based Analysis
TL;DR本研究解决了AdaGrad在非凸优化中渐近和非渐近收敛率理论分析不足的问题。通过引入来自概率理论的新停时技术,建立了AdaGrad在温和条件下的稳定性,并推导出几乎必然和均方的渐近收敛形式,展示了平均平方梯度的接近最优非渐近收敛率。这为未来其他自适应随机算法的研究提供了潜在的独立技术。