用于正则化损失最小化的随机对偶坐标上升方法
本篇论文介绍了一种在机器学习中用于解决正则化损失最小化问题的有效技术,即随机对偶坐标上升算法(SDCA)的一种扩展,首次引入了一种加速版的 mini-batch SDCA 算法,并且证明了它的快速收敛率。我们在并行计算系统上实现了该方法,并将结果与常规 SDCA 和加速的确定性梯度下降方法进行了比较。
May, 2013
本文介绍了一种 Stochastic Dual Coordinate Ascent 算法的变体,用于解决非凸损失函数的正则化损失最小化问题,并且证明了只要期望损失是凸的,就可以确保该算法具有线性收敛速度。
Feb, 2015
本文提出了分布式随机双协调上升算法(DisDCA)以解决大规模正则化损失最小化问题,并通过理论分析和实证研究证明,通过增加每次迭代的双向更新次数,DisDCA 算法可以实现指数级收敛加速,从而证明了实际 DisDCA 算法相对于基本算法具有卓越的性能。
Dec, 2013
介绍了 AdaSDCA:一种自适应的随机对偶坐标上升(SDCA)变体,用于解决正则化经验风险最小化问题。AdaSDCA 通过在迭代过程中自适应地改变对偶变量上的概率分布,实现了比 SDCA 更好的复杂度界限。同时,我们提出了 AdaSDCA+:一种实用的变体,在实验中表现优于现有的非自适应方法。
Feb, 2015
介绍了一个基于 proximal 的对偶协调上升方法,该算法框架可以用于多种正则化损失最小化问题,包括 l1 正则化和结构化输出 SVM。我们取得的收敛速度与现有最先进结果匹配并有时超过。
Nov, 2012
该论文提出了一种改进的 mini-batch 随机双坐标上升方法,用于正则化经验损失最小化(即,支持向量机和支持向量机类型目标)。我们的分析允许灵活的抽样方案,包括数据分布跨多台机器,并结合了对损失平滑度和 / 或数据展开性的依赖(通过谱范数度量)。
Jul, 2015
本文介绍了一种基于近端随机对偶坐标上升方法的算法,并演示了如何使用内外迭代过程加速该方法。我们分析了该框架的运行时,并获得了改进各种关键机器学习优化问题(包括 SVM、逻辑回归、岭回归、套索以及多类别 SVM)的最新结果的速率。实验验证了我们的理论发现。
Sep, 2013
本文研究了在共享内存多核处理器上并行化基于随机双坐标下降的算法,提出了一种异步算法 ASDCD,分析了使用不同锁定 / 原子机制的收敛性,并在实验结果中展示了我们的方法比以前的并行坐标下降求解器更快。
Apr, 2015
本文提出了 SGDA 的统一收敛性分析框架,覆盖了各种随机梯度下降上升方法,并分别提出了多种新变体方法,通过大量数值实验证明了这些方法的重要性质。
Feb, 2022