马尔可夫链镜像下降在数据联合中的应用
对于在优化时无法接收来自分布的独立样本的情况,将随机次梯度下降方法推广到连续的采样情况下,只要随机源是足够遍历的,具有强的收敛性保证,在高维空间的随机优化,分布式优化,以及组合空间上的优化问题中具有应用前景。
May, 2011
本文研究在多智能体网络中,基于 Bregman 散度作为距离测度函数,提出了两种高效的非欧几里德随机次梯度下降算法,用于求解非平滑和强凸函数的最小值,并在模拟实验中验证其收敛速度。
Oct, 2016
该论文探讨了基于在线凸优化的强化学习的新框架,特别是镜像下降及相关算法,提出了一种新的类似于梯度下降的迭代方法。其中,基于不同 Bregman 散度的抛物线梯度强化学习法比常规 TD 学习更为普适。还提出了一种新型的稀疏镜像下降强化学习方法,相比之前基于二阶矩阵方法的方法,在寻找一个 l1 正则化 Bellman 方程的稀疏不动点时具有显著的计算优势。
Oct, 2012
本文研究了一类具有一致性属性的非单调问题中,优化镜像下降法(OMD)的收敛性和优化方式。分析表明,OMD 可以解决这些问题并推广了先前的结果,为建立凸凹博弈以外的收敛性提供了具体进展。在一系列 GAN 模型上的数值实验结果验证了分析的可行性。
Jul, 2018
提供了乐观镜面下降算法的几个应用:将其用于线下优化中的镜像近端算法、扩展到 Holder 平滑函数、并将结果应用于鞍点问题;将其用于有限零和矩阵博弈中,为两个强耦合玩家提供最小化最大值均衡的渐进速率 O ((log T)/T);再考虑问题的部分信息版本并将结果应用于凸规划,展示了近似最大流问题的简单算法。
Nov, 2013
通过基于原始 - 对偶随机镜像下降的统一框架,提供了一种近似求解具有生成模型的无限时域马尔可夫决策过程,同时提出了解决双线性鞍点问题与约束 MDPs 的方法。
Aug, 2020
本文提出了基于近似镜像下降的一类在线分布式优化算法,以 Bregman 距离为测量函数,包括欧几里得距离作为特例,考虑两种标准信息反馈模型,并通过在线分布式正则化线性回归问题的仿真结果验证了算法的性能。
Apr, 2020
本研究主要探讨过参数模型中采用 stochastic mirror descent 方法,在足够小的步长下,通过初始化接近全局最小值,其可以收敛和迭代到一种接近 Bregman 散度且具有更好泛化性能的解决方案,并探究该方法中不同的隐式正则化方式对结果表现的影响。
Jun, 2019
该论文研究了随机镜像下降法在非凸优化中的非渐近稳态收敛性,特别关注了一类非凸非光滑的随机优化问题,其中目标函数可以分解为一个相对弱凸函数(可能是非 Lipschitz)和简单的非光滑凸规则化函数。论文证明,SMD 算法在收敛速率为 $O(1/√t)$ 的同时,无需使用小批量就能保证收敛到一个稳定点。
Jun, 2018