加速随机梯度下降算法用于最小二乘回归
本篇论文研究了关于随机逼近问题的现有算法,提出了两种新型随机梯度算法,并在回归和逻辑分类两种经典的监督学习问题上进行了测试,得到了较好的优化效果。
Jun, 2013
提出一种基于平均加速正则梯度下降的算法,通过细化初值和Hessian矩阵的假设,最优地优化回归问题,并证明其在偏差与方差之间具有最优性、大数据时初始化影响可达到O(1/n2)以及对于维度d的依赖程度为O(d/n)。
Feb, 2016
研究如何在存在梯度估计噪声的情况下,通过使用多阶段加速算法,探讨最小化强凸光滑函数的问题,并通过采用特定的重启和参数选择,实现在确定性和随机情况下的最佳速率,以及在不知道噪声特性的情况下操作。
Jan, 2019
本文提出了一种新的基于梯度的随机凸复合优化方法,将估计序列概念推广到随机优化算法中,以一种简单通用的方式证明了众多随机优化算法的收敛性,并提出几种可靠性策略。
Jan, 2019
本文介绍了在目标函数为凸或强凸函数时获取加速一阶随机优化算法的各种机制,同时扩展了最初用于确定性目标的Catalyst方法到随机问题领域,并提供了一个新的关于处理不精确近端算子时的鲁棒性的泛化分析
Jun, 2019
研究了Nesterov加速梯度方法在随机逼近和有限和设置下的表现,发现使用通常的步长和动量参数,该方法在后者可能发散,进而阐明了这种方法在此情况下可能失败的原因。
Feb, 2020
本文提出了一种基于加速梯度下降的新随机逼近算法,该算法在非强凸情况下取得了最佳预测误差率,并在加速遗忘初始条件方面达到了最优效果,同时在算法的平均迭代次数和最终迭代次数上均提供了收敛结果,该算法还在无噪声环境下提供了一个匹配下界,展示了我们算法的最优性。
Mar, 2022
本文讨论了一类随机光滑凸优化问题,其噪声的方差与算法产生的近似解的次优性有关,提出了两个非欧几里德加速随机逼近算法,即随机加速梯度下降(SAGD)和随机梯度外推(SGE),并证明了在适当的条件下,这两个算法可以同时达到最优的迭代和样本复杂度。同时本文还提出了应用SGE进行恢复稀疏解的方法。
Jul, 2023
基于SGD,本文提出了一种统一框架来解决随机优化中非凸条件下的收敛分析问题,并发现了两种插入加速方法:拒绝加速和随机向量加速,理论上证明这两种方法可以直接提高收敛速度。
Feb, 2024
我们在插值条件下证明了随机Nesterov加速的新的收敛速度。不同于以往的分析,我们的方法可以加速任何在期望中取得足够进展的随机梯度方法。证明使用估计序列框架进行,适用于凸函数和强凸函数,并且可以轻松推广到满足强生长条件的加速SGD。在这种特殊情况下,我们的分析将强生长常数的依赖性从ρ减小到√ρ,相对于以前的工作来说,这一改进相当于最坏情况下条件数的平方根,并解决了对于随机加速的保证可能不如SGD的批评。
Apr, 2024