该研究论文展示了演化策略在学习大型监督模型的非可微参数方面的优越性,尤其是当模型具有百万维参数时,该方法的竞争能力非常出色。这种方法允许瘦模型从第一步开始就可以训练,非常适合于大算力场景。
Jun, 2019
通过算法稳定性的视角,对凸凹和非凸非凹情形下的随机梯度方法在极小极大问题中的泛化能力进行了全面的分析,建立了稳定性与泛化能力之间的定量联系。在凸凹情形下,稳定性分析表明了随机梯度下降算法对于平滑和非平滑的极小极大问题皆可达到最优的泛化界。我们还确定了泛函弱凸弱凹和梯度占主导地位的问题的泛化界。
May, 2021
提出了一种新的 MinMax 优化算法家族,它利用早期迭代所观察到的梯度数据的几何信息,以在后期执行更具信息性的额外梯度步骤,从而自适应地检测问题是否光滑。
Oct, 2020
利用随机微分方程分析和比较最小化最大化优化器的 SDE 模型,揭示超参数、隐式正则化和隐含的曲率诱导噪声之间的相互作用,并以简化的设定推导出收敛条件和闭式解,进一步揭示不同优化器行为的见解。
Feb, 2024
本文研究了黑盒环境下有约束的鲁棒(最小 - 最大)优化问题,并采用了零阶梯度估计器与交替投影随机梯度下降 - 上升方法的优化框架,称为 ZO-Min-Max,旨在探索在对抗机器学习中的黑盒最小 - 最大优化与黑盒逃避和污染攻击之间的可能联系。实证评估表明了该方法的有效性和可扩展性。
Sep, 2019
本文针对非凸凹的情况,在最小极大问题中应用交替梯度下降方法找到临界点并证明了一种新的全局收敛速率。
Jul, 2020
本文提出了一种新的 epsilon 次梯度下降算法来解决极小极大优化问题中内部最大化解的不连续性,该算法可以同时跟踪 K 个候选解,并且在 K 的复杂度下找到之前鞍点算法无法找到的解,在 GAN 训练和域自适应问题中有着显著的稳定性和收敛速度提升。
May, 2018
本文提出一种新的随机优化原理,即使用 Blanchet 和 Glynn 的多级 Monte-Carlo 方法将任何最优随机梯度方法转换为 $x_*$ 的估计量,以此为基础获得了一种廉价且几乎无偏差的梯度估计器,可以应用于随机优化的多个领域,如随机优化,概率图形模型推理以及优化的机器学习等。
Jun, 2021
本文提出了一种基于加速的近端点方法和最小值近端步求解器的算法,其梯度复杂度为 O(kappa_x kappa_y^0.5),匹配了已有的最优下界,可用于解决强凸强凹、凸凹、非凸强凹和非凸凹函数的问题。
Feb, 2020
本文提出了一种新的零阶方差约减梯度上升 / 下降算法来解决机器学习中的零阶 minimax 最小化问题, 并通过实验结果证明其性能优越。
Jun, 2020