噪声标签下的联合负样本和正样本学习
本文提出了一种名为 “SelNLPL” 的优化 CNNs 训练方法,在使用负训练法(NL)的基础上,选择性地使用正训练法(PL)来训练低噪声数据,从而实现对有噪声数据分类的准确性优化。
Aug, 2019
通过集成部分标签学习和负向学习来革新嘈杂标签学习,通过自适应地将标签空间分解为候选标签和补充标签,并引入困难清晰度和软清晰度两种适应性数据驱动的标签模糊辨别范式来提高模型的鲁棒性,并通过一致性正则化术语维持标签可靠性。与其他最先进方法相比,NPN 表现出了优越性能。
Dec, 2023
我们提出了一种端到端的 PLReMix 框架,通过引入伪标签松弛的对比损失来避免复杂的训练流程,解决了 Contrastive Representation Learning(CRL)与有监督学习的优化冲突,并采用二维高斯混合模型(GMM)同时利用语义信息和模型输出来区分干净和噪声样本。
Feb, 2024
本研究旨在寻找一种有效的解决方法,以应对在细粒度数据集上进行嘈杂标签学习 (LNL-FG) 的挑战,为此,研究人员提出了一种称为随机容限监督对比学习 (SNSCL) 的新框架,旨在通过促进可辨别表达形式来解决标签噪音问题。该方法综合了加权机制与避免插入噪声标签的动量联想队列,以及一种从生成的分布中对特征嵌入进行采样的高效随机模块。大量实验表明了 SNSCL 的有效性。
Mar, 2023
利用 CLIP 模型的协作样本选择及预训练,并通过对 prompt 的微调以及协同训练 DNN 分类器,解决在学习有噪声标签的过程中由于样本选择错误累积导致的 DNN 训练偏见和泛化性能问题。
Oct, 2023
应对深度学习算法中的劳动密集型标注成为一个瓶颈,处理不完美的标签日益受到关注,并成为一个活跃的研究领域。我们解决了学习带有噪声标签的问题,将其形式化为在嘈杂数据中找到结构化流行体的任务。在这个框架中,我们提供了一个合适的目标函数和一个基于两个期望最大化(EM)循环的优化算法。与两个 EM 循环相关的分离网络合作优化目标函数,其中一个模型用于区分干净标签和损坏标签,而另一个模型用于修复损坏的标签。这种方法最终得到了一个非坍塌的学习带噪声标签的飞轮模型。实验结果表明,在多个标准基准测试中,我们的算法在各种类型的标签噪声下取得了最先进的性能,并有显著的优势。
Jan, 2024
本文介绍了一种新的学习任务 —— 带有噪声标签和噪声源分布知识的学习,并探索了几种方法,将噪声源知识整合到最先进的 LNL 方法中,在三个不同的数据集和三种噪声类型上报告了与未经调整的方法相比提高 5-15% 的性能,突出了直接探究 LNL + K 任务的重要性。
Jun, 2023
本文提出了一种利用联合优化框架来学习深度神经网络参数和估算真实标签的方法,以克服在噪声标签数据集上进行训练导致性能下降的问题,实验结果表明该方法在解决 CIFAR-10 噪声数据集和 Clothing1M 数据集分类问题上优于其他最先进的方法。
Mar, 2018
提出了邻域集合估计方法来弥合学习过程中可能产生的噪声标签带来的负面效果,实现清除嘈杂数据中的噪声标签,提取尽可能多的干净样本,从而提高模型性能,并用辅助技术来进一步优化模型。
Aug, 2022
本文提出了一种新的深度学习范式 Co-Teaching,它通过同时运用两个神经网络,自我纠正,相互辅助学习,从而提高了模型在嘈杂标签下的稳健性。
Apr, 2018