同伴损失函数:在不知道噪声比率的情况下从有噪标签中学习
本文证明了大多数知名损失函数的经验风险因子可分为线性项,聚合所有标签和不涉及标签的项,并且可以进一步表示为损失的和。这适用于任何RKHS中的非光滑、非凸损失。通过估计平均操作符,本研究揭示了这种分解的变量的充分统计量,并将其应用于弱监督学习。最后,本文展示了大多数损失都享有一种依赖于数据的(通过平均算子)噪声鲁棒性。
Feb, 2016
本文介绍了一种寻找对标签噪声具有内在容忍性的损失函数的方法,并提供了一些在多类分类问题中让该损失函数在风险最小化时具有内在容忍标签噪声的充分条件,同时通过实验验证了基于平均误差值的损失函数是内在鲁棒的,并且标准反向传播足以学习出真正的分类器。
Dec, 2017
本研究提出了一种应对嘈杂标签的无监督半监督深度神经网络学习框架,通过在噪声图像标注中识别出标签准确度较高的部分数据,并利用半监督学习方式训练深度神经网络以更好地利用整个数据集。
Feb, 2018
本文综述了深度学习中标签噪声的学习问题,提供了62种最新的鲁棒训练方法,并系统性比较了六个评估指标。同时,分析了噪声估计率和评估方法,并提出了未来的几个研究方向。
Jul, 2020
本文提出一种基于 (heuristics) 启发式规则构造损失函数 (loss functions) 的弱监督学习 (weak supervision) 方法,命名为 'Losses over Labels (LoL)',可以更多地利用启发式规则中专家知识和判断依据进行训练,有效提高文本和图像分类任务中的性能。
Dec, 2022
本文通过理论分析探讨了在样本噪声存在的情况下,仅使用噪声样本能否学习到可靠模型的问题。作者认为,没有额外假设条件的情况下,经验风险最小化可以达到最优风险上限。此外,文章还讨论了0-1损失的极小极大下限问题,认为纯使用噪声样本无法学习。
Jun, 2023
本研究表明,使用交叉熵损失结合常用的正则化策略,如学习率下降、模型权重平均和数据增强等,可以优于最先进的方法,在处理学习噪声标签的挑战时,采用一种正则化策略组合可能比复杂的算法更有效。
Jul, 2023
在存在噪音标签的情况下,我们研究了在线分类问题。通过一般的核来建模噪音机制,为任何特征-标签对指定了一个(已知)噪音标签分布集合。每个时间步骤,对手根据实际的特征-标签对从核指定的分布集合中选择一个未知分布,并根据所选分布生成噪音标签。学习者根据迄今为止观察到的实际特征和噪音标签进行预测,如果预测与真实情况不同,则遭受损失1(否则为0)。预测质量通过计算有限时间视野T上的极小化风险来量化。我们证明了对于广泛的自然噪音核、对手选择的特征和有限类别的标记函数,极小化风险可以上界独立于时间视野并以标记函数类别尺寸的对数形式增长。然后,我们通过随机顺序覆盖的概念将这些结果推广到无限类别和随机生成的特征。我们的结果通过对在线条件分布估计的新颖归约提供了直观理解,并且扩展并包含了Ben-David等人(2009)的研究结果,具有显著的广泛性。
Sep, 2023
使用易样本辅助选择难样本进行标签纠正从而实现去噪标签学习,并且在Instance-Dependent噪声数据集上展示出比其他最先进方法更出色的性能。
Jul, 2024