关键词regularized loss minimization
搜索结果 - 7
- 关于正则化损失最小化的核心集
本文设计并数学分析了一种采样算法,用于实现大数据的正则化损失最小化问题,指出如果假设的范数和数据增加时正则化效果不会变弱,那么小规模均匀采样有很高概率成为一个 coreset,尤其在逻辑回归和软间隔支持向量机等方面的表现好。
- ICML无对偶、正则化和单独凸性的 SDCA
提出了改进型的随机对偶坐标上升方法,无需显式正则化,无需依赖对偶性,甚至对于非凸损失函数,只要期望损失函数是强凸的,就可以证明收敛率是线性的。
- 结构凸优化问题误差界的统一方法
本文针对结构化凸优化问题,建立一个新的错误边界框架,并对常见的错误边界结果进行统一和透明的证明,此外,将其应用于核范数正则化损失最小化问题,并在严格补充型条件下建立了新的错误边界。
- 无对偶的 SDCA
本文介绍了一种 Stochastic Dual Coordinate Ascent 算法的变体,用于解决非凸损失函数的正则化损失最小化问题,并且证明了只要期望损失是凸的,就可以确保该算法具有线性收敛速度。
- 分布式随机对偶协调上升分析
本文提出了分布式随机双协调上升算法(DisDCA)以解决大规模正则化损失最小化问题,并通过理论分析和实证研究证明,通过增加每次迭代的双向更新次数,DisDCA 算法可以实现指数级收敛加速,从而证明了实际 DisDCA 算法相对于基本算法具有 - 加速小批次随机对偶坐标上升
本篇论文介绍了一种在机器学习中用于解决正则化损失最小化问题的有效技术,即随机对偶坐标上升算法(SDCA)的一种扩展,首次引入了一种加速版的 mini-batch SDCA 算法,并且证明了它的快速收敛率。我们在并行计算系统上实现了该方法,并 - 近端随机对偶坐标上升
介绍了一个基于 proximal 的对偶协调上升方法,该算法框架可以用于多种正则化损失最小化问题,包括 l1 正则化和结构化输出 SVM。我们取得的收敛速度与现有最先进结果匹配并有时超过。