复合极小值的近端法
本文研究了凸函数与唇希茨凸函数的平滑映射组合的最小化算法的全局效率,以及使用近端线性方法结合平滑、快速梯度方案等技术处理只能通过一阶方法解决的子问题时,如何获得高效率。
Apr, 2016
该研究广义化了牛顿型方法以处理光滑函数的最小化,特别是一个包含简单近端映射的凸函数和一个非光滑函数的总和,在此基础上提出了近端牛顿型方法。研究表明,该方法即使在计算搜索方向不精确时,也能继承用于最小化光滑函数的牛顿型方法的理想收敛性质。该方法是许多针对生物信息学、信号处理和统计学习等问题量身定制的流行方法的特例,并且分析结果为其中一些方法提供了新的收敛结果。
Jun, 2012
本文提出一族算法通过简单的随机模型样本和优化方法,成功的减少了目标函数。我们展示出,合理的近似质量和模型的正则性下,此类算法将自然的稳定度衡量推向 0,该衰减速度为 O (k^(-1/4)),基于此原理,我们为随机的近端子梯度法,近端次梯度法以及规则化的高斯牛顿法等提供了第一个复杂性保证。
Mar, 2018
本文提出了基于可变度量的框架,针对自共轭(self-concordant)函数和可能非平滑凸函数之和的问题,提出了一种易于计算的近端算子。通过利用问题的结构,本文建立了分析式的步长选择和校正过程,并在几个有趣的应用上展示了这一框架的具体算法实例和其在合成数据和真实数据上的数值结果。
Aug, 2013
提出了一种基于新的近端牛顿算法的凸优化方法,应用于图学习问题中的稀疏逆协方差矩阵估计,避免了矩阵求逆,适合并行实现。
Jan, 2013
利用可适应性光滑函数的概念和 Bregman 基础的近端梯度方法,在解决具有复杂目标函数的非凸、非光滑最小化问题时,实现全局收敛。
Jun, 2017
我们引入自协调平滑的概念,用于最小化两个凸函数的和:第一个是光滑的函数,第二个可以是不光滑的函数。我们的方法自然地从称为部分平滑的平滑近似技术中得出。我们的方法的重点在于所得问题结构的自然特性,它为我们提供了一个变量度量选择方法和一条特别适合于近端牛顿类型算法的步长选择规则。另外,我们有效地处理不光滑函数推动的特定结构,例如 L1 正则化和组套索惩罚。我们证明了两种算法的局部二次收敛速度:Prox-N-SCORE,即近端牛顿算法和 Prox-GGN-SCORE,即近端广义高斯牛顿(GGN)算法。Prox-GGN-SCORE 算法突出了一种较为重要的近似过程,有助于显著降低与逆 Hessian 相关的大部分计算开销。此近似过程对于超参数机器学习模型和小批量设置非常有用。对合成数据集和真实数据集的数值实验证明了我们方法的效率和优越性。
Sep, 2023
该篇研究综述了一系列针对包含大量凸组件函数的最小化求和问题的方法,这些方法通常采用单个组件的迭代,并分析了这些方法的收敛性和收敛速度。 此外,作者还探讨了这些方法在推理 / 机器学习、信号处理和大规模 / 分布式优化等方面的应用。
Jul, 2015