关键词regularized empirical risk minimization
搜索结果 - 10
- 一种在线多核并行学习方案
本文提出了一种学习方案,通过可扩展地结合多个基于单核的在线方法来减少内核选择偏差,从而扩展了单核解空间,增加了找到高性能解的可能性,并在累积正则化最小二乘成本指标方面实验证明所提出的学习方案优于单独使用的组合单核在线方法。
- 在线逻辑回归的高效非正当学习
本文研究在线逻辑回归的问题,提出了一种高效的不合适算法,它避免了指数倍的常数,并保持了对数回归。通过采用经验风险最小化的正则化和替代损失,我们的新算法仅需 O(B log(Bn))的损失缩放,每轮的时间复杂度为 O(d ^ 2)。
- 一种支配所有的方法:用于数据、参数和多种新方法的方差缩减
提出了一种通用的降方差的方法,适用于解决带有大量训练样例或大型模型维度或两者都有的正则化经验风险最小化问题。该方法可以减少已知的多种方法,同时提供了一种单一的定理,该定理可以证明在平滑和拟强凸性假设下的线性收敛性。此外,该方法还为随机梯度和 - NIPS随机原始 - 对偶法用于经验风险最小化,每次迭代复杂度为 O(1)
本文提出了新的随机原始对偶算法,用于解决具有线性预测器的正则化经验风险最小化问题。通过泰勒展开、凸组合和割平技巧得到具有较优复杂度和收敛性质的算法,进一步提出了方差减少版算法和数值实验表明该算法在高维问题上优于现有算法,收敛速度更快。
- 具有方差缩减的异步随机近端优化算法
本文提出异步 ProxSVRG 和异步 ProxSVRCD 算法,证明当训练数据为稀疏矩阵时,异步 ProxSVRG 可以达到近似线性加速,而异步 ProxSVRCD 无论稠密还是稀疏数据,只要区块数目适当,就可以实现近似线性加速。通过实验 - KDD自适应随机原始对偶坐标下降算法处理可分离鞍点问题
本文提出了一种基于随机块坐标下降和自适应步长的原始 - 对偶更新框架,用于解决具有可分结构的凸 - 凹鞍点问题,并在正则化的经验风险最小化问题上进行了实证分析,结果表明该方法具有较快的收敛速度和良好的表现。
- 使用灵活的小批量方案和非凸损失的 ERM 原始方法
本文提出了一种新算法用于规则经验风险最小化问题,可以使非凸损失函数也能收敛,达到与 QUARTZ 相同的复杂度,同时也能更好地利用数据信息,实现任意小批量的设计。
- 特征巴拿赫空间中的正则化学习方案
本文提出了一种统一的框架,利用正则化经验风险最小化来研究特征反射巴拿赫空间的约束学习理论,重点是与完全凸函数相关的 Tikhonov-like 正则化。该框架在各种特征先验设定下提供了灵活的模型,包括一些特别的硬约束和巴拿赫范数的次幂。在此 - 带逐步方差缩减的近端随机梯度下降法
提出了一种多级方案来逐渐减少随机梯度方差的新的近端随机梯度方法,用于解决平滑组件函数的平均和简单近端映射的一般凸函数总和的极小化问题。
- 具有次指数包络的类别的普适非精确预言机不等式
研究表明,在类具有次指数包络函数的假设下,经验风险最小化程序和正则经验风险最小化程序满足非精确 Oracle 不等式。 该研究将这些结果应用于凸聚合和模型选择问题。