本文提出了一种名为 JoCoR 的鲁棒学习范例,该范例旨在通过 Co-Regularization 减少两个网络在训练期间的多样性,实验证明该方法在学习具有噪声标签的数据中优于当前许多最先进的方法。
Mar, 2020
本文提出了一种粗 - 细分离的稳健学习方法 (CREMA) 来处理训练深度神经网络时出现的嘈杂标签问题,通过建模每个样本的信誉度来对清洁数据和嘈杂数据进行分离和处理,并提出了一种选择性标签更新策略来纠正嘈杂标签,该方法展示了在不同数据集 (图像分类和文本识别) 以及噪声情况下的优越性和普适性。
Aug, 2022
该论文提出了一种基于无标签干扰数据集训练深度卷积神经网络的新型框架,并使用一个无向图模型来描述干净和嘈杂标签之间的关系,在监督学习过程中学习这个模型。该模型在图像标注问题上应用,并在 CIFAR-10 和 MS COCO 数据集上展示出有效的标注效果和在训练中实现了减少标签噪声的效果。
May, 2017
本文提出了 CoLaDa 协作标签去噪框架来解决跨语言命名实体识别中标签噪声的问题。通过采用不同数据源的模型合作去噪伪标签和基于实例协作的策略来考虑表示空间中邻域的标签一致性,CoLaDa 在不同基准数据集上得到了卓越的结果,特别是在远距离语言的泛化方面。
May, 2023
提出了一个深度学习神经网络的标签检查和修正方法,该方法结合了小损失选择和噪声校正的思想,采用两个不同的网络来通过小损失选择方法训练,并根据两网络的分类误差和同意误差的评估来度量训练数据的置信度,在真实和人工数据集上测试表明该方法优于基准方法。
Feb, 2022
本文通过模型和数据维度尝试处理嘈杂标签学习中的误差积累问题。引入均值点集成方法来利用更鲁棒的损失函数和未被选择样本中的更多信息从模型角度减少误差积累;从数据角度,选择翻转图像的损失值来代替原始图像的损失值选择小损失样本,以减少误差积累。在 CIFAR-10、CIFAR-100 和大规模 Clothing1M 上的广泛实验表明,我们的方法优于不同噪声水平的最先进的嘈杂标签学习方法,也可以与其他噪声标签学习方法无缝结合以进一步提高它们的性能并很好地推广给其他任务。
Dec, 2022
提出了一种名为 Co-teaching + 的稳健学习范例,它将 “Update by Disagreement” 策略与原始的 Co-teaching 相结合,以解决由于与同伴网络达成一致而导致 Co-teaching 退化为自训练的 MentorNet 的问题。实证结果表明,Co-teaching + 在训练模型的稳健性方面比许多最先进的方法优秀。
Jan, 2019
通过双重校正框架进行去噪推荐,解决了推荐系统中显式反馈嘈杂样本的问题,提高了准确性和数据利用率。
May, 2024
本文从生成模型的角度重构标签噪声问题,提出了 LRA 扩充扩散模型来处理噪声标签。经过广泛的实验验证,我们的模型在所有标准实际基准数据集上均取得了新的最优结果,在许多情况下,通过结合来自强大的 CLIP 模型的条件信息,我们的方法可以将当前的最优精度提高 10-20 个绝对点。
本文提出一种使用 “超集学习” 框架来处理标签噪声的方法,将目标信息进行模糊化,并添加额外的备选标签,以协同改善学习器的泛化性能。实验结果表明该方法在合成和真实数据上都能有效检测和纠正错误的训练标签。