零阶异步双随机算法与方差缩减
本文提出一种基于随机零阶梯度与方差降低的高斯平滑的新型方法,用于优化非凸函数,特别是深度神经网络的黑盒攻击问题,并在实验中证明了其比现有的导数 - free 优化技术表现更优。
May, 2018
本文提出了一种基于损失函数的零阶优化算法(ZO-SVRG)以及相应的快速收敛的优化方法,即方差减少,用于解决应用中需要零阶优化的挑战,可用于黑盒物质分类和黑盒深度神经网络模型生成对抗性示例。我们的理论分析揭示了 ZO-SVRG 的本质难点,并提出了两种利用方差减少的梯度估计器的加速版本 ZO-SVRG,其在 ZO 随机优化(迭代次数)方面具有已知的最佳速度。与当前其他最先进的 ZO 算法相比,我们的方法在功能查询复杂性和收敛速率之间取得了平衡。
May, 2018
本文介绍了两种零阶随机算法的优化和改进,其中一种通过新的 ZO-SVRG-Coord-Rand 算法和分析结果发现,比现有的同类算法以及 ZO-GD 和 ZO-SGD 更为优秀,另一种通过新的 ZO-SPIDER-Coord 算法有效降低了 Gaussian 随机变量的数量和步长的级别以实现相同的收敛速度和查询复杂度,并且自动实现了线性收敛率。
Oct, 2019
零阶局部双重方差约减(ZPDVR)方法利用平均技巧来减少采样方差和坐标方差,其在复合优化问题中通过随机梯度估计调用随机零阶神谕(SZO)的期望次数为 O (1) 每次迭代,以及在强凸光滑环境中实现了最优的 O (d (n+κ) log (1/ε)) SZO 查询复杂度,其中 κ 表示条件数,ε 为所需精度,经验证 ZPDVR 具有线性收敛,并且在其他相关方法上表现出优越性。
May, 2024
该研究探讨了基于方差缩减的优化算法,尤其是异步版本的 SVRG 和 SAGA 在机器学习中的应用和实验表现。研究结果表明,该方法在稀疏设置下实现了近线性加速。
Jun, 2015
本文提出了一种加速的随机零阶 Frank-Wolfe 优化算法,通过使用 SPIDER/SpiderBoost 技术和一种新的动量加速技术,它可以在非凸优化中实现 O (d√nε⁻²) 的函数查询复杂度,并改进了现有最佳结果,同时在随机问题中实现了 O (dε⁻³) 的函数查询复杂度,同时提出了基于 STORM 的 Acc-SZOFW *,它不需要大批量也可以达到与 Acc-SZOFW 相同的函数查询复杂度。
Jul, 2020
本文表明,渐进地,完全异步的随机梯度程 序可以在几乎与标准随机梯度程 序的渐进最优性相同的条件下实现解决凸优化问题的最优(甚至是常数因子)收敛率。大体而言,随机近似方案固有的噪音支配了任何来自异步的噪音。我们还提供了经验性 证据,证明了异步、并行的随机优化方案的强大性能,这表明随机近似问题固有的稳健性允许更快的并行和异步解决方法。
Aug, 2015