本篇论文介绍了一种简单的随机方差减小 (MiG) 算法及其在强凸和非强凸问题中最佳的收敛速率,并在稀疏和异步情况下介绍了其有效的变体并在这些情况下理论化分析其收敛速率。最后,我们进行了大量的实验,如逻辑回归等,以证明在串行和异步设置中的实际改进。
Jun, 2018
本论文提出了一种优化方法,该方法融合了加速梯度下降、随机方差减少梯度的优点,适用于非强凸和强凸问题,并在效率和收敛速率上都有优异表现。
Jun, 2015
本文介绍了一种名为 VRADA 的简化和统一的有限和凸优化方法,其中改进了现有方法,匹配了一些更强的下界,并在实际数据集上证明了其具有良好的性能。
Jun, 2020
本论文提出了一种加速的近端随机方差减少梯度(ASVRG)方法,它具有一种简单而有效的动量加速技巧,并证明在强凸和非强凸目标函数上都可以实现最佳已知的 oracle 复杂度。同时将 ASVRG 扩展到 mini-batch 基础上,并证明了理论结果,表明 ASVRG 的性能与现有的随机方法相当甚至更好。
Oct, 2018
本文提出一种名为 GTVR 的随机分散算法框架,其基于本地方差缩减和全局梯度跟踪的技术,用于解决大规模,有可能无法集中处理私有数据的优化问题。我们在本文中重点研究了 GTVR 并介绍了两种算法 GT-SAGA 和 GT-SVRG,证明它们在解决光滑问题上呈现出线性收敛,并实现了在网络独立下的线性速度提升。
Dec, 2019
本文研究基于方差减小的随机梯度算法,探究了随机数据抽样和随机重排的条件下的线性收敛性和新的 AVRG 算法,并给出了理论保证。
Aug, 2017
本研究分析了随机变量缩减梯度(SVRG)方法在非凸有限和问题中的应用,证明了其比随机梯度下降(SGD)和梯度下降(GD)更快收敛于固定点,并分析了一类 SVRG 在解决非凸问题上的线性收敛,同时研究了 mini-batch 变体的 SVRG 在并行设置中加速的外延。
Mar, 2016
通过在随机抽样的 ADMM 方法中引入动量加速技巧,进一步提高了广义凸问题的收敛速度,从 O (1/T) 到 O (1/T^2),并在强凸问题中获得了线性收敛速度。
Jul, 2017
本文提出了使用新型负采样动量的加速 SAGA 算法,以实现直接加速 SAGA 的目的,并在已知强凸性参数的强凸问题上实现了最优的预期复杂度。
提出一种带有方差缩减的新型随机共轭梯度算法,并使用 Fletcher 和 Reeves 方法证明其对于强凸光滑函数的线性收敛性。 实验表明,与其他算法相比,该算法在四个学习模型中收敛更快,同时在六个大数据集上表现相当,但计算效率显著提高。
Oct, 2017