深度学习中方差缩减优化算法的无效性
本研究分析了随机变量缩减梯度(SVRG)方法在非凸有限和问题中的应用,证明了其比随机梯度下降(SGD)和梯度下降(GD)更快收敛于固定点,并分析了一类 SVRG 在解决非凸问题上的线性收敛,同时研究了 mini-batch 变体的 SVRG 在并行设置中加速的外延。
Mar, 2016
本文提出了针对复合目标强凸的情况下,带有方差约束的随机梯度下降法,其收敛速度优于传统的随机梯度下降法,同时常数因子也更小,只与输入数据的方差有关。
Oct, 2016
本文提出一种基于随机零阶梯度与方差降低的高斯平滑的新型方法,用于优化非凸函数,特别是深度神经网络的黑盒攻击问题,并在实验中证明了其比现有的导数 - free 优化技术表现更优。
May, 2018
CheapSVRG is proposed as a new stochastic variance-reduction optimization scheme which achieves a linear convergence rate through a surrogate computation while also balancing computational complexity.
Mar, 2016
本文介绍应用随机方差缩减梯度下降(SVRG)到无模型策略梯度中以显著提高其样本效率,并将 SVRG 估计组合到信赖区间牛顿共轭梯度架构中进行策略优化。在 Robotic Continuous Control 的几个 Mujoco 任务中,我们的方法比现有的无模型策略梯度方法如 Trust Region Policy Optimization (TRPO) 表现明显更好。
Oct, 2017
我们研究了随机梯度噪声对生成对抗网络(GAN)训练的影响,并表明它可以防止标准游戏优化方法的收敛,而批量版本收敛。我们提出了一种新颖的随机方差减小外推(SVRE)优化算法,它可以为大多数游戏类别提高文献提出的收敛速度。我们在 MNIST 上经验性地观察到 SVRE 在计算上比批处理方法更便宜,并且 SVRE 在标准数据集上产生更稳定的 GAN 训练。
Apr, 2019
该研究探讨了基于方差缩减的优化算法,尤其是异步版本的 SVRG 和 SAGA 在机器学习中的应用和实验表现。研究结果表明,该方法在稀疏设置下实现了近线性加速。
Jun, 2015
本文提出了一种基于损失函数的零阶优化算法(ZO-SVRG)以及相应的快速收敛的优化方法,即方差减少,用于解决应用中需要零阶优化的挑战,可用于黑盒物质分类和黑盒深度神经网络模型生成对抗性示例。我们的理论分析揭示了 ZO-SVRG 的本质难点,并提出了两种利用方差减少的梯度估计器的加速版本 ZO-SVRG,其在 ZO 随机优化(迭代次数)方面具有已知的最佳速度。与当前其他最先进的 ZO 算法相比,我们的方法在功能查询复杂性和收敛速率之间取得了平衡。
May, 2018
介绍一种使用卡尔曼过滤器进行随机优化的算法,并分析了其在非凸设置下收敛性的理论,并在神经网络和黑盒变分推理等许多机器学习领域上展示了其改进的性能。同时,介绍了一种分布式版本的算法,并将其扩展到 SGD 动量和 RMSProp。
Oct, 2018