NLNL: 噪声标签的负学习
本文介绍了一种新颖的基于联合消极和积极学习的方法 (JNPL),该方法通过两个损失函数 (NL + 和 PL+) 对 CNN 进行训练,并通过简化 pipeline 过程实现对带有噪声标签的数据的高效分类任务。
Apr, 2021
通过集成部分标签学习和负向学习来革新嘈杂标签学习,通过自适应地将标签空间分解为候选标签和补充标签,并引入困难清晰度和软清晰度两种适应性数据驱动的标签模糊辨别范式来提高模型的鲁棒性,并通过一致性正则化术语维持标签可靠性。与其他最先进方法相比,NPN 表现出了优越性能。
Dec, 2023
本文研究卷积神经网络(CNN)在学习训练数据语义方面的能力,通过对负面图像进行评估,发现当 CNN 在正常图像上训练,测试在负面图像时,模型准确度明显降低,导致我们猜测目前的训练方法不能有效地训练模型来概括概念,引入语义对抗示例的概念,并将负面图像作为其中一类这样的输入。
Mar, 2017
本研究旨在寻找一种有效的解决方法,以应对在细粒度数据集上进行嘈杂标签学习 (LNL-FG) 的挑战,为此,研究人员提出了一种称为随机容限监督对比学习 (SNSCL) 的新框架,旨在通过促进可辨别表达形式来解决标签噪音问题。该方法综合了加权机制与避免插入噪声标签的动量联想队列,以及一种从生成的分布中对特征嵌入进行采样的高效随机模块。大量实验表明了 SNSCL 的有效性。
Mar, 2023
本论文探究了在实际情况中,数据标注不可避免地有可能存在噪声标签的情况下,利用引入噪声层的方法,在 Convolutional Network 模型上进行判别性训练以获得更好的性能。同时在多个数据集上进行了实验,包括在 ImageNet 分类基准测试上的大规模试验。
Jun, 2014
利用 CLIP 模型的协作样本选择及预训练,并通过对 prompt 的微调以及协同训练 DNN 分类器,解决在学习有噪声标签的过程中由于样本选择错误累积导致的 DNN 训练偏见和泛化性能问题。
Oct, 2023
提出了一个深度学习神经网络的标签检查和修正方法,该方法结合了小损失选择和噪声校正的思想,采用两个不同的网络来通过小损失选择方法训练,并根据两网络的分类误差和同意误差的评估来度量训练数据的置信度,在真实和人工数据集上测试表明该方法优于基准方法。
Feb, 2022
本文提出了一种选择性有监督对比学习(Sel-CL)方法,通过筛选可信样本减少噪声标签对表示学习的影响,改善只依赖高质量标注数据的有监督对比学习算法中噪声标签导致的泛化性能差的问题。实验证明该方法在多个噪声数据集上均具有鲁棒性且表现优于现有方法。
Mar, 2022
我们提出了一种端到端的 PLReMix 框架,通过引入伪标签松弛的对比损失来避免复杂的训练流程,解决了 Contrastive Representation Learning(CRL)与有监督学习的优化冲突,并采用二维高斯混合模型(GMM)同时利用语义信息和模型输出来区分干净和噪声样本。
Feb, 2024
该论文提出了一种基于无标签干扰数据集训练深度卷积神经网络的新型框架,并使用一个无向图模型来描述干净和嘈杂标签之间的关系,在监督学习过程中学习这个模型。该模型在图像标注问题上应用,并在 CIFAR-10 和 MS COCO 数据集上展示出有效的标注效果和在训练中实现了减少标签噪声的效果。
May, 2017