本研究分析了随机变量缩减梯度(SVRG)方法在非凸有限和问题中的应用,证明了其比随机梯度下降(SGD)和梯度下降(GD)更快收敛于固定点,并分析了一类 SVRG 在解决非凸问题上的线性收敛,同时研究了 mini-batch 变体的 SVRG 在并行设置中加速的外延。
Mar, 2016
本文提出了基于随机平均梯度方法的优化算法,它克服了黑匣子随机梯度方法的缺点,具有更快的收敛速度和更少的梯度评估数量。实验表明,该算法在许多情况下都优于现有的随机梯度方法和确定性梯度方法,并且可以通过非均匀采样策略进一步提高表现。
Sep, 2013
本文研究分散设置中的非凸函数求和最小化优化问题,提出了 PMGT-SVRG 算法的新的理论分析,证明了其方法的线性收敛性。然而,PMGT-SVRG 算法的收敛速度与条件数呈线性依赖关系,这对于病态问题而言是不理想的。为了解决这个问题,我们提出了一种结合加速、梯度跟踪和多共识混合技术的加速随机分散一阶算法,该方法的收敛速度与条件数呈平方根依赖关系。数值实验验证了我们提出算法在合成和真实数据集上理论保证的有效性。
Feb, 2024
本文提出一种基于变量规约的 Proximal 随机梯度下降算法 (ProxSVRG+), 该算法在非凸性和非光滑性优化问题上具有更好的性能,并在收敛性分析方面比之前的算法更加全面和普适性更强。
Feb, 2018
本文提出了针对复合目标强凸的情况下,带有方差约束的随机梯度下降法,其收敛速度优于传统的随机梯度下降法,同时常数因子也更小,只与输入数据的方差有关。
Oct, 2016
CheapSVRG is proposed as a new stochastic variance-reduction optimization scheme which achieves a linear convergence rate through a surrogate computation while also balancing computational complexity.
本篇论文介绍了一种简单的随机方差减小 (MiG) 算法及其在强凸和非强凸问题中最佳的收敛速率,并在稀疏和异步情况下介绍了其有效的变体并在这些情况下理论化分析其收敛速率。最后,我们进行了大量的实验,如逻辑回归等,以证明在串行和异步设置中的实际改进。
Jun, 2018
本文提出了 SGDA 的统一收敛性分析框架,覆盖了各种随机梯度下降上升方法,并分别提出了多种新变体方法,通过大量数值实验证明了这些方法的重要性质。
Feb, 2022
本文为最小化平滑和凸损失加上凸正则化的随机梯度算法提供了一致的收敛性分析定理,并探讨了特定算法的最优小批量大小。
Jun, 2020
该研究提出了一种针对小批量优化问题的新优化方法 SAGA,通过引入一种步长参数,在强凸光滑问题上获得了加速收敛率,同时应用于分割算子方法难以解决的许多领域。
Feb, 2016