本文提出了两种新的视频分析策略来处理噪声标签问题:一种基于特征的噪声标签检测轻量级通道选择方法,另一种构建干净与噪声实例关系以规范化模型训练的对比策略。实验结果表明,我们的方法在三个基准测试集上都优于现有基线,在 Mini-Kinetics 数据集上通过噪声对称 80%测试,噪声检测 F1-score 的提高率达到了 0.4%,分类准确度提高了 5%以上。
Dec, 2022
本研究旨在寻找一种有效的解决方法,以应对在细粒度数据集上进行嘈杂标签学习 (LNL-FG) 的挑战,为此,研究人员提出了一种称为随机容限监督对比学习 (SNSCL) 的新框架,旨在通过促进可辨别表达形式来解决标签噪音问题。该方法综合了加权机制与避免插入噪声标签的动量联想队列,以及一种从生成的分布中对特征嵌入进行采样的高效随机模块。大量实验表明了 SNSCL 的有效性。
Mar, 2023
本文提出了 TCL 模型,通过 Gaussian mixture model 等技术处理嘈杂标注数据,采用 mixup 和 contrastive learning 等方式学习鲁棒性特征表示和分类,实验结果显示 TCL 在多个数据集上具有优越性能。
基于语音识别的自然语言理解方法和两阶段的对比一致性学习模型能够提高在不同噪声环境下的自动语音识别的鲁棒性。
May, 2024
本文提出一种新的对抗噪声视图具有鲁棒性的对比损失函数,它在图像、视频和图形上的对比学习基准测试中提供了一致的改进,并且是模态无关和与 InfoNCE 损失的一个简单替代方法。
Jan, 2022
提出了一种名为 Contrast to Divide (C2D) 的简单框架,使用自我监督的预训练来解决标签噪声的问题,并改善特征提取质量。实验结果表明,与现有方法相比,在高噪声环境下,C2D 对 CIFAR-100 提高了超过 27%,在现实噪声环境下,C2D 的性能优于之前的方法。
Mar, 2021
通过对比学习,深度符号回归对抗噪声(DN-CL)使用两个参数共享编码器将数据点从各种数据变换嵌入到特征屏蔽中,以对抗噪声,通过减小这些特征之间的距离来区分经过噪声修正的正向对和负向对,实验结果表明 DN-CL 在处理噪声和干净数据方面具有卓越的性能,提供了一种有前途的符号回归方法。
Jun, 2024
利用 CLIP 模型的协作样本选择及预训练,并通过对 prompt 的微调以及协同训练 DNN 分类器,解决在学习有噪声标签的过程中由于样本选择错误累积导致的 DNN 训练偏见和泛化性能问题。
Oct, 2023
本文提出了一种名为 “SelNLPL” 的优化 CNNs 训练方法,在使用负训练法(NL)的基础上,选择性地使用正训练法(PL)来训练低噪声数据,从而实现对有噪声数据分类的准确性优化。
Aug, 2019
我们提出了 D-SCL,这是一种新颖的去偏差的监督对比学习目标,旨在减少标记错误引入的偏差,并证明了 D-SCL 在各种视觉基准上稳定优于最先进的表示学习技术,提供了对标签错误的改进的鲁棒性。
Nov, 2023