本研究主要探讨过参数模型中采用 stochastic mirror descent 方法,在足够小的步长下,通过初始化接近全局最小值,其可以收敛和迭代到一种接近 Bregman 散度且具有更好泛化性能的解决方案,并探究该方法中不同的隐式正则化方式对结果表现的影响。
Jun, 2019
本研究提出了一种神经网络算法 LS-Net,用于优化基于平方和的目标函数。该算法不需要手动设置正则化参数,能够有效地优化具有挑战性的运动立体视觉问题。
Sep, 2018
该专著介绍了坐标下降算法,主要研究优化问题的解决方法,适用于机器学习、数据科学、工程等领域。
Sep, 2016
本篇研究分析几种解决非凸优化问题的新方法,其中目标函数为由非凸光滑项和已知凸简单项组成的总和,提出了随机坐标下降算法,并研究了它们的收敛性质及一些最优性衡量指标。同时,还针对一般情况下的非凸复合优化问题,证明了算法所生成的序列渐近收敛到固定点,同时在某些最优性测度下期望具有亚线性收敛率,如果目标函数满足误差界限条件,则导出了目标函数期望值的局部线性收敛率,并进行了广泛的数值实验来评估算法性能和与现有方法的比较。
May, 2013
本篇论文提出了一种加速随机镜像下降法来解决平均函数和非强凸函数的问题,绕过了常见的小二次正则化降低性能的方法,可以更好地解决非强凸情况。
May, 2016
我们集中研究具有非凸非光滑目标函数的分布式优化问题,特别是非光滑神经网络的分布式训练。我们引入一个统一框架,名为 DSM,用于分析分布式随机次梯度方法的全局收敛性。我们证明了在温和条件下,我们提出的框架的全局收敛性,通过建立生成的序列渐近逼近其相关微分纳入的轨迹。此外,我们证明了我们提出的框架包括各种现有的高效分布式次梯度方法,包括分布式随机次梯度下降(DSGD),带有梯度跟踪技术的 DSGD(DSGD-T)和带有动量的 DSGD(DSGDm)。此外,我们引入 SignSGD,使用符号映射来规范 DSGDm 中的更新方向,并证明其包含在我们提出的框架中。因此,我们的收敛结果首次证明了这些方法在应用于非光滑非凸目标时的全局收敛性。初步的数值实验表明,我们提出的框架在非光滑神经网络的训练中产生了高效的分布式次梯度方法,具有收敛性保证。
Mar, 2024
本研究旨在介绍了坐标下降算法的基本原理、变体及其扩展,特别关注于在数据分析、机器学习等领域中的应用及并行执行的收敛性等。
Feb, 2015
本文提出一种新算法 ScaledGD,它是梯度下降方法的预处理或对角线缩放版本,其预处理器是自适应且具有最小的计算开销,在低秩矩阵感知,鲁棒主成分分析和矩阵完成等任务中实现了线性收敛,具有优秀的性能表现。
May, 2020
本文研究子模函数最小化问题,并采用随机坐标下降方法来获得具有更快线性收敛率和更低迭代成本的算法。与交替投影方法相比,我们的算法不依赖于完全维度的向量运算,并且收敛所需的迭代次数显著减少。
该论文介绍了一种 V~u-Condat 算法的坐标下降版本,该算法可以解决具有可微函数、约束以及非可分、非可导的正则化器的优化问题,并且在更广泛的参数范围内比之前的方法产生了更好的收敛性能。
Aug, 2015