针对机器学习算法默认独立采样的局限性,在网络化数据样本学习中,使用了有效的样本加权方案,提高了错误边界,从而使丢弃过多共享信息的方法不再是唯一选择。
May, 2014
本文提出一种内点法(IPM),用于在联合学习设置下解决一般的经验风险最小化(ERM)问题,展示了每次迭代 IPM 的通信复杂度具有 O(d ^ {3/2})的上限。
May, 2023
本文研究机器学习中的经验风险最小化方法在核支持向量机、核岭回归和神经网络训练等问题上的计算复杂性,并基于复杂理论假设如强指数时间假设,证明了这些问题的条件难度结果。同时,对于许多非凸学习任务中的主要计算负担 —— 经验损失的梯度计算,也给出了类似的难度结果。
Apr, 2017
本文提出了对于概率鲁棒学习方法的新的几何观点,针对其原始公式存在的细微缺陷,引入了一族概率非局部周长函数,通过新颖的松弛方法证明了解的存在性,并研究了所引入的周长的性质与局部极限。
该研究通过使用两组未标记的数据和基于经验风险最小化(ERM)的方法,提出了一种可以训练任意(从线性到深度)二分类器的学习方法,并证明了这种方法是一致的;实验证明,该方法可以训练深度模型并优于学习两组未标记数据的现有方法。
Aug, 2018
经验风险最小化算法(ERM)在已知数据集且平滑的情况下,能够实现次线性误差,并且具有统计复杂性的概念。
Feb, 2024
本文提出了一种通过求解对偶问题的分布式经验风险最小化训练框架,可以用于各种机器学习问题,具有全局线性收敛和更快的实证性能。
Sep, 2017
本文提出一个通用的定理给出经验风险最小化器 (ERM) 风险的上界,并且通过采用一些方便的加权经验过程的浓度不等式扩展 Tsybakov 针对 ERM 风险下边缘条件的分析,以便处理一些测量分类器类 “大小” 的方式,特别地,当分类规则属于某个 VC 类且满足边缘条件时,我们推导出 ERM 的新风险上界,并讨论这些上界在极小化意义下的最优性。
Feb, 2007
探讨深度神经网络假设类上基于经验风险最小化 (ERM) 的新分类和回归算法在高维偏微分方程数值解中克服维数灾难的条件,并说明在多项式时间内只需合适数量的样本即可获得解。
Sep, 2018
本研究提出了一种基于元学习的方法来解决数据集分布变化和环境数据中假相关性的问题,并通过实验展示该方法在 Out-of-Distribution(OOD)泛化性能、稳定性和解决 IRMv1 的局限性方面具有显著改进。
Mar, 2021