关键词empirical risk minimizer
搜索结果 - 7
- 依赖学习理论中的尖锐速率:避免样本数量紧缩对于平方损失的影响
统计学习中的依赖数据和平方损失在假设类 F 中研究,其中 Ψp 是范数 λf∥f∥Ψp≡supm≥1m−1/p∥f∥Lm 为某个 p∈[2,∞]。我们的研究旨在寻找一个与依赖数据学习相关的噪声交互项或者方差代理。在我们的假设类 F 上,当 - 随机凸优化中 ERMs 的样本复杂度
在这项工作中,我们证明了实际上只需要大约 d/ε+1/ε² 个数据点,就足够使得任何经验风险最小化器(ERM)在真实总体上表现良好,从而解决了一个中心基础问题,即学习在真实总体上取得好的性能需要观察多少数据点。
- 基于 MOM 最小化的鲁棒分类
文章提出了一种基于中位数的方法对样本数据进行操作,构建了一种新的模型 MOM minimizers,相比经典的样本经验风险最小化方法,在处理分类问题上更具有鲁棒性,在满足样本具有有限的二阶矩条件下,得到了 Vapnik(慢速)收敛率,在此基 - 用平均数中位数保障的机器学习:理论与实践
使用中位数估计器介绍了一种新的鲁棒机器学习估计器,能够在最小数据集假设下实现最佳收敛率,这一方法通过分析异常值而得出。该研究提出一个新的断点概念,该断点数量考虑了估计器的统计性能,同时提高了算法的可实现性。
- 在单次遍历中与经验风险最小化器竞争
本文提出了一种流式算法,可以在一次样本遍历中,线性时间内实现并且使用的空间仅为每个样本大小的线性。算法能够在每个问题上达到与 $ERM$ 相同的统计收敛速率,甚至考虑常数因素,而且算法性能随初始误差下降的超多项式速率,算法易于并行。此外,本 - 高维广义线性模型与套索法
研究了具有 Lipschitz 损失函数的高维广义线性模型,并证明了带有 Lasso 惩罚项的经验风险最小化算子的非渐进性 oracle 不等式。惩罚项是基于线性预测中的系数,在经验规范化后计算。研究包括逻辑回归、密度估计、带有 Hinge - 统计学习的风险界限
本文提出一个通用的定理给出经验风险最小化器 (ERM) 风险的上界,并且通过采用一些方便的加权经验过程的浓度不等式扩展 Tsybakov 针对 ERM 风险下边缘条件的分析,以便处理一些测量分类器类 “大小” 的方式,特别地,当分类规则属于