该研究在连续和离散时间设置下,针对正则化的目标函数给出了关于均值场 Langevin 动力学的简洁、自包含的收敛速率分析。作者证明了命题的关键在于该理论的复合推广的 Gibbs 分布。作者发现该分布与经验风险最小化中的对偶间隙存在关联,这可能使算法收敛的经验评估更加有效。
Jan, 2022
使用加权运输成本不等式来量化 SGLD 在欧几里得 2 - 瓦瑟斯坦距离下收敛到随机分布的速率,并在非凸学习问题的背景下提供有限时间保证来找到两种风险的近似最小化器。
Feb, 2017
为了证明策略优化算法的收敛性,本篇论文开发出了一种新的方法,该方法使用非统计方法提供了 $ extit {非渐进}$ 收敛保证,并专注于受 softmax 参数化限制的比例调节的策略梯度算法,重点是折扣的马尔可夫决策过程。实验证明,该算法在逼近正则化 MDP 的最优价值函数时,收敛呈线性或甚至二次收敛速度,考虑到算法的稳定性,收敛结果适应了广泛的学习速率,并阐明了熵正则化在实现快速收敛方面的作用。
Jul, 2020
本文提出了强化的 Langevin dynamics 算法和分析框架,理论证明了全局收敛性,能在各自的梯度复杂度内接近极小值。
Jul, 2017
本文研究了非凸优化中动量随机梯度下降 (MSGD) 算法的连续性版本,并证明了在目标函数满足 Lipschitz 连续性和 Polyak-Lojasiewicz 不等式的条件下,MSGD 算法的目标函数极限收敛指数级收敛,同时在给定摩擦参数的情况下,MSGD 过程几乎必定收敛。
Feb, 2023
通过使用动力学均场理论的方法,我们分析了随机梯度下降在单层神经网络分类高维高斯混合数据上的学习动态。我们通过定义一种随机过程将随机梯度下降扩展到连续时间极限,称之为随机梯度流,并探讨了算法控制参数对其在损失函数空间中的导航的影响。
Jun, 2020
本文提出了一个新的框架来证明具有有限粒子逼近,时间离散化和随机梯度逼近误差的 MFLD 的混沌传播具有时间一致性,并在学习问题和不同梯度估计器的广泛范围内建立了量化的收敛速率保证,包括 SGD 和 SVRG 算法。
Jun, 2023
论文分析了在函数逼近情况下,通过 softmax 参数化的熵正则化 NPG 方法,证明了该方法收敛速度为 O (1/T) 且表现出线性收敛特性,在正则化 MDP 中不需要对策略进行任何先验假设。
Jun, 2021
本文研究了随机梯度 Langevin 动力学(SGLD)算法,针对非凸优化问题,注入适当缩放的高斯噪声来更新参数,我们分析了算法达到参数空间任意子集的的命中时间,从理论上得出结论:对于经验风险最小化,如果经验风险在点值上接近于(平滑的)总体风险,则该算法在多项式时间内实现了总体风险的近似局部最小值,逃离仅存在于经验风险的次优局部最小值。同时,我们还展示了 SGLD 如何改进学习零一损失下线性分类器的已知最佳学习结果之一。
我们研究了 Langevin 过程和随机微分方程,证明了它们收敛于相关稳定分布的数量化收敛速度,应用于非凸问题的随机梯度下降算法的收敛性分析和实验.
Jul, 2019