随机凸优化的预言机复杂度信息论下界
通过反馈信息理论的视角,研究序列凸优化的内在限制。我们证明了,在优化算法中,为了获得最优解,算法必须能够积累关于目标的充分信息,这对于特定的假设和反馈类型限制了优化速度。我们的技术类似于统计学文献中用于估计程序风险的极小界,但不同之处是优化算法可以以受控方式收集观测数据。特别地,我们证明了优化算法常常遵循收益不高于成本的规律。我们利用这种方法推导了一类主动学习问题的基本下限,进一步实现了优化、实验设计、估计和主动学习中信息和量化信息之间的联系。
Oct, 2010
本文针对随机凸优化问题,提出了局部复杂度度量,并给出了与优化固有几何概念相对应的统计难度的收敛结果。基于 Nesterov 的对偶平均方法和 Riemannian 方法,开发出完全在线的适应性最优收敛算法,实现了函数特定的下界和收敛结果,并对约束鉴别和线性约束与非线性约束等方面做了探讨。
Dec, 2016
本文探讨了在随机凸优化问题中寻找近似驻点的 oracle 复杂度问题和其和全局 oracle 模型的关系,并提出了一种扩展的递归正则化算法以实现接近最优率,并揭示了 stochastic optimization 和 learning 的复杂度之间的一些惊人区别。
Feb, 2019
我们通过使用第一阶 oracle 及条件数,提供了寻找 min-max 优化问题中目标函数在最小化变量上是非凸及在最大化变量上是强凸时的稳定点的复杂度的下界,这既适用于确定性 oracle 也适用于随机 oracle,并提供了各自的下界,并与其他文献的上界进行了比较。
Apr, 2021
我们研究了一类随机二级优化问题,引入了一种新颖的随机二级优化方法,通过随机切割平面局部逼近下层问题的解集,并运行带有方差减少技术的条件梯度更新来控制由于使用随机梯度引起的误差。在上层函数为凸函数的情况下,我们的方法需要最多 $\tilde {\mathcal {O}}(\max\{1/\epsilon_f^{2},1/\epsilon_g^{2}\})$ 个随机 oracle 查询,得到一个上层函数精度为 $\epsilon_f$、下层函数精度为 $\epsilon_g$ 的解,这一保证改进了之前已知的复杂性 $\mathcal {O}(\max\{1/\epsilon_f^{4},1/\epsilon_g^{4}\})$。此外,在上层函数为非凸函数的情况下,我们的方法需要最多 $\tilde {\mathcal {O}}(\max\{1/\epsilon_f^{3},1/\epsilon_g^{3}\})$ 个随机 oracle 查询,找到一个 $(\epsilon_f, \epsilon_g)$- 稳定点。在有限和问题设置中,对于凸和非凸情况下,我们的方法所需的随机 oracle 调用次数分别为 $\tilde {\mathcal {O}}(\sqrt {n}/\epsilon)$ 和 $\tilde {\mathcal {O}}(\sqrt {n}/\epsilon^{2})$,其中 $\epsilon=\min \{\epsilon_f,\epsilon_g\}$。
Aug, 2023
在在线学习中,优化随机零阶反馈下的凸函数一直是一个主要而具有挑战性的问题。本文考虑了仅能对目标函数进行噪声评估的情况下,对二阶平滑和强凸函数进行优化的问题;通过提出匹配的上下界,第一次对最小化最大简单后悔的速率进行了紧密的刻画。我们提出了一种算法,结合了启动阶段和镜像下降阶段。我们的主要技术创新包括对高阶平滑性条件下球形采样梯度估计器的尖锐刻画,从而使算法能够在偏差 - 方差权衡方面达到最优平衡,以及一种用于启动阶段的新的迭代方法,它能够保持无界 Hessian 的性能。
Jun, 2024
本文提出一族算法通过简单的随机模型样本和优化方法,成功的减少了目标函数。我们展示出,合理的近似质量和模型的正则性下,此类算法将自然的稳定度衡量推向 0,该衰减速度为 O (k^(-1/4)),基于此原理,我们为随机的近端子梯度法,近端次梯度法以及规则化的高斯牛顿法等提供了第一个复杂性保证。
Mar, 2018
本文研究了利用随机一阶预测器在凸集上最小化凸函数的问题,证明了函数在最小值点 $x_{f, S}^*$ 附近增长的速率是最优学习率的决定因素,并得到了关于学习率和复杂度的结论结果。
Jul, 2012
采用随机一阶方法找到梯度范数不超过 ε 的 ε- 稳定点的复杂度下界,使用具有有界方差的无偏随机梯度预言机访问光滑但可能非凸函数的一种模型,证明任何算法在最坏情况下需要至少 ε^-4 个查询才能找到 ε- 稳定点。对于噪声梯度估计满足均方光滑性质的更严格模型,我们证明了 ε^ -3 个查询的下界,建立了最近提出的方差缩减技术的最优性。
Dec, 2019