差的最大结构弱凸函数的单循环随机算法
本篇论文研究了关于随机逼近问题的现有算法,提出了两种新型随机梯度算法,并在回归和逻辑分类两种经典的监督学习问题上进行了测试,得到了较好的优化效果。
Jun, 2013
采用Hit-and-Run方法通过log-concave分布的采样来优化凸可行解,在log-concave分布的基础上扩展近似log-concave分布的分析, 并使1D采样器的实现需要新的方法和分析,应用于不同的激励问题,并讨论了这种方法的其他应用。
Jan, 2015
本文提出一族算法通过简单的随机模型样本和优化方法,成功的减少了目标函数。我们展示出,合理的近似质量和模型的正则性下,此类算法将自然的稳定度衡量推向0,该衰减速度为O(k^(-1/4)),基于此原理,我们为随机的近端子梯度法,近端次梯度法以及规则化的高斯牛顿法等提供了第一个复杂性保证。
Mar, 2018
该论文提出了基于随机条件梯度方法的优化问题求解算法,用于解决大规模维度下的凸函数、连续子模型等多种问题,并证明了当问题维度高时,该方法较与传统的随机梯度下降法更加稳定,同时计算时间复杂度也得到了有效降低。
Apr, 2018
本文研究了一类非凸的最小值最大值问题,其中目标函数在最小化变量上是弱凸的,在最大化变量上是凸的。针对不同的光滑和不光滑的实例,我们提出了近端引导随机次梯度方法和近端引导随机方差减少方法。同时,我们分析了所提出方法在找到最小值和最大值对应的几乎稳定点的时间复杂性。
Oct, 2018
本文提出了一种新的随机原始-对偶算法来解决一类包含凸-凹结构的问题,并且相比现有算法在迭代次数上有更快的收敛速度,其中使用了梯度更新和确定性对偶变量更新的混合方法。
Apr, 2019
研究了随机梯度下降(SGD)算法在最小化光滑、可能非凸函数梯度范数方面的迭代复杂度,结果表明,Ghadimi和Lan的上限不能得到改进,除非做出额外的假设,即使对于凸二次函数,也是如此;此外还表明,对于非凸函数,SGD最小化梯度的可行性需要根据所选择的最优性标准而定。
Oct, 2019
提出了采用Epoch-GDA方法解决强凸强凹(SCSC)最小最大问题的锐利分析,并且展示了Epoch-GDA可以实现一般SCSC最小最大问题的对偶间隙的最优速率O(1 / T)。
Feb, 2020
本文提出一种新的随机优化原理,即使用 Blanchet 和 Glynn 的多级 Monte-Carlo 方法将任何最优随机梯度方法转换为 $x_*$ 的估计量,以此为基础获得了一种廉价且几乎无偏差的梯度估计器,可以应用于随机优化的多个领域,如随机优化,概率图形模型推理以及优化的机器学习等。
Jun, 2021
本研究旨在通过将常数步长随机外推算法(SEG)和随机梯度升降(SGDA)重新组合为时齐马尔科夫链来澄清并量化这些算法内在的概率结构,并证明了对于广泛的单调和非单调VIP而言,平均迭代数渐近地趋向于具有唯一不变分布的正态分布,从而带来了对VIPs的改进和理论发现验证的实验
Jun, 2023