Jo-SRC:一种对抗噪声标签的对比学习方法
本文提出了一种名为 JoCoR 的鲁棒学习范例,该范例旨在通过 Co-Regularization 减少两个网络在训练期间的多样性,实验证明该方法在学习具有噪声标签的数据中优于当前许多最先进的方法。
Mar, 2020
本文通过模型和数据维度尝试处理嘈杂标签学习中的误差积累问题。引入均值点集成方法来利用更鲁棒的损失函数和未被选择样本中的更多信息从模型角度减少误差积累;从数据角度,选择翻转图像的损失值来代替原始图像的损失值选择小损失样本,以减少误差积累。在 CIFAR-10、CIFAR-100 和大规模 Clothing1M 上的广泛实验表明,我们的方法优于不同噪声水平的最先进的嘈杂标签学习方法,也可以与其他噪声标签学习方法无缝结合以进一步提高它们的性能并很好地推广给其他任务。
Dec, 2022
该研究提出了一种通用的方法来处理噪声和不完整标记,通过增强具有一致性概念的预测目标,实现相似感知的相同预测。在多个数据集上的实验表明,该方法可以显著提高模型的标签鲁棒性和识别准确率,同时对未标记面部图像也有较好的效果。
Dec, 2014
提出了一个深度学习神经网络的标签检查和修正方法,该方法结合了小损失选择和噪声校正的思想,采用两个不同的网络来通过小损失选择方法训练,并根据两网络的分类误差和同意误差的评估来度量训练数据的置信度,在真实和人工数据集上测试表明该方法优于基准方法。
Feb, 2022
利用视觉 - 语言替代模型 CLIP 自动过滤噪声样本,并设计了一种适应性边界损失来规范由 CLIP 引入的选择偏差,从而提供对标签噪声的鲁棒性。在真实和合成噪声数据集上验证了我们提出的方法的有效性。
Oct, 2023
该论文提出了一种名为 UNICON 的简单而有效的样本选择方法,使用 Jensen-Shannon 散度的均匀选择机制来应对高标签噪声问题,并且在多个基准数据集上进行了广泛的实验,证明了 UNICON 的有效性。
Mar, 2022
该论文提出了一种基于无标签干扰数据集训练深度卷积神经网络的新型框架,并使用一个无向图模型来描述干净和嘈杂标签之间的关系,在监督学习过程中学习这个模型。该模型在图像标注问题上应用,并在 CIFAR-10 和 MS COCO 数据集上展示出有效的标注效果和在训练中实现了减少标签噪声的效果。
May, 2017
提出一种能够有效提高 SOTA noisy-label learning 方法性能的新噪声标签学习图模型,该模型能够准确估计噪声率并用于训练过程的样本选择阶段。
May, 2023
抽样选择、标签噪音、模型更新、选择偏差和语义特征空间是此论文的关键词。该论文提出的方法在各种噪声设置中实现了近 2.53 倍的加速,0.46 倍的峰值内存占用,并具有卓越的鲁棒性。
May, 2024