风险最小化下的噪声容错能力
本文研究了在训练数据中存在标签噪声的情况下,风险最小化的鲁棒性。我们探讨了一种损失函数对于噪声的容忍度,并证明了 0-1 损失、Sigmoid 损失、Ramp 损失和 Probit 损失满足该条件,其中选择足够大的参数可以使其对非均匀标签噪声具有容忍度。在大量实证研究中,与 SVM 算法相比,我们证明了使用 0-1 损失、Sigmoid 损失和 Ramp 损失的风险最小化更加鲁棒。
Mar, 2014
本文介绍了一种寻找对标签噪声具有内在容忍性的损失函数的方法,并提供了一些在多类分类问题中让该损失函数在风险最小化时具有内在容忍标签噪声的充分条件,同时通过实验验证了基于平均误差值的损失函数是内在鲁棒的,并且标准反向传播足以学习出真正的分类器。
Dec, 2017
训练神经网络分类器在带有标签噪声的数据集上存在过拟合的风险,为了解决这个问题,研究人员探索了更加稳健的替代损失函数,然而,许多这些替代方法都是启发式的,仍然容易受到过拟合或欠拟合的影响。在本研究中,我们提出了一种更直接的方法来应对标签噪声引起的过拟合问题,我们观察到标签噪声的存在意味着噪声泛化风险的下界,基于这一观察,我们提出在训练过程中对经验风险施加一个下界来减轻过拟合问题。我们的主要贡献是提供了理论结果,给出了不同损失函数下噪声风险的最小可达下界的明确、易于计算的界限。我们通过实验证明,在各种设置中使用这些界限极大地提高了鲁棒性,几乎没有额外的计算成本。
Jul, 2023
在存在噪音标签的情况下,我们研究了在线分类问题。通过一般的核来建模噪音机制,为任何特征 - 标签对指定了一个(已知)噪音标签分布集合。每个时间步骤,对手根据实际的特征 - 标签对从核指定的分布集合中选择一个未知分布,并根据所选分布生成噪音标签。学习者根据迄今为止观察到的实际特征和噪音标签进行预测,如果预测与真实情况不同,则遭受损失 1(否则为 0)。预测质量通过计算有限时间视野 T 上的极小化风险来量化。我们证明了对于广泛的自然噪音核、对手选择的特征和有限类别的标记函数,极小化风险可以上界独立于时间视野并以标记函数类别尺寸的对数形式增长。然后,我们通过随机顺序覆盖的概念将这些结果推广到无限类别和随机生成的特征。我们的结果通过对在线条件分布估计的新颖归约提供了直观理解,并且扩展并包含了 Ben-David 等人(2009)的研究结果,具有显著的广泛性。
Sep, 2023
本文通过理论分析探讨了在样本噪声存在的情况下,仅使用噪声样本能否学习到可靠模型的问题。作者认为,没有额外假设条件的情况下,经验风险最小化可以达到最优风险上限。此外,文章还讨论了 0-1 损失的极小极大下限问题,认为纯使用噪声样本无法学习。
Jun, 2023
本文研究了含有噪声敏感特征的公平机器学习算法,表明当使用均值差异分数作为公平性量度标准时,只需通过调整所需的公平容错率即可仍然学习出公平分类器,该容错率可以通过现有噪声率估计器进行估计,并在两个敏感特征审查案例研究中得到实证有效性。
Jan, 2019
本论文研究了机器学习中存在的标签噪音问题,提出了一个理论框架来模拟标签噪音分布对分类性能的影响,并发现标签噪音的分布对分类精度有很大的影响,尤其是当噪音集中在特定的特征空间时。此外,论文还探讨了一些解决噪音问题的方法,并发现存在一些困难。
Jun, 2022
使用含噪标记数据训练决策树,研究能够导致健壮学习算法的损失函数。首先,我们在决策树学习领域提供了有关许多现有损失函数健壮性的新理论见解。其次,我们介绍了一种构建健壮损失函数的框架,称为分布损失。最后,我们的多个数据集和噪声设置上的实验证实了我们的理论洞察力和自适应负指数损失的有效性。
Dec, 2023
研究使用经验风险最小化解决预测和估计问题,针对一般凸损失函数。我们证明了即使当集中度是错误的或非常受限制的情况下,例如在重尾场景中,我们也可以获得尖锐的误差率。我们的结果表明,误差率取决于两个参数:一个捕捉类别的内在复杂性,以实质上在无噪声(或可实现)问题中导致误差率;另一个衡量类成员之间的交互、目标和损失,并且在问题远离可实现时是主导的。我们还解释了如何选择与类的内在复杂性和问题噪声水平相 calibrated 的损失来处理离群值。
Oct, 2014
本研究提出了一种简单的概率建模方法,将分类问题中异方差标签误差的考虑引入到损失函数中,以达到减少过拟合,提高鲁棒性的效果。
Apr, 2023