学习带有噪音基础模型
通过大规模数据集的预训练和下游任务的微调已经成为深度学习中的标准实践。然而,预训练数据通常包含可能对模型的泛化产生不利影响的标签噪声。本文旨在理解预训练数据中噪声的特性,并减轻其对下游任务的影响。我们通过对合成噪声的 ImageNet-1K 和 YFCC15M 数据集进行有监督预训练模型的大量实验,证明了轻微噪声预训练可以在域内传输性能上有益,但总是会对域外性能造成恶化。我们通过实证验证了噪声对预训练的特征空间造成不同的影响。然后,我们提出了一种轻量级的黑盒调节方法(NMTune),来对齐特征空间,减轻噪声的恶性效应,并改善在域内和域外任务上的泛化能力,考虑到可能无法完全微调甚至访问预训练模型。我们对经过噪声数据预训练的热门视觉和语言模型进行了实证实验以评估我们的方法。我们的分析和结果显示出这个有趣而新颖的研究方向的重要性,我们称之为噪声模型学习。
Sep, 2023
在这项研究中,我们的目标是找到一种适用于带有噪声标签数据集的预训练模型微调的合适方法。通过经验分析,我们引入了一种名为 TURN 的新算法,其能够稳健且高效地传递预训练模型的先验知识。该算法包括两个主要步骤:(1)独立调整线性分类器来保护特征提取器免受噪声标签的扭曲影响,以及(2)减少噪声标签比例并基于降噪后的数据集对整个模型进行微调以适应目标数据集。与先前方法相比,该算法在各种基准测试中广泛测试,表现出高效且改进的降噪性能。
Oct, 2023
本文提出一种噪声容忍的训练算法,其中在传统梯度更新之前进行元学习更新来模拟实际训练。通过生成合成噪声标签进行训练,该元学习方法训练模型,以便在使用每个设置的合成噪声标签进行一次梯度更新后,模型不会过度拟合特定的噪声,从而提高深度神经网络的性能。
Dec, 2018
我们提出了一种用于预训练可认证的强健模型的方法,通过显著扩展预训练数据分布,在下游任务的微调中取得显著效益。我们通过对混合干净图像和各种噪声图像进行预训练,发现即使仅在干净图像上进行微调,也能取得惊人的认证准确率。此外,我们的方法仅需一个模型,即可处理各种噪声水平,大大降低了与以往使用多个模型的方法相比的计算成本。尽管仅使用一个模型,我们的方法仍可以得出与现有的多模型方法相当甚至更好的结果。
Dec, 2023
该研究旨在提出一种简单而有效的方法名为 NoisyTune,通过在微调之前为 PLMs 的参数添加一些噪声来帮助更好地微调 PLMs,在 GLUE 英语基准和 XTREME 多语言基准上进行的广泛实验表明 NoisyTune 可以持续增强不同 PLMs 在不同下游任务的微调。
Feb, 2022
本文主要研究了如何应对在低资源语言中的文本分类中存在的标注噪声问题,并提出了一些噪声处理技术和使用任务自适应的预训练技术来解决这个问题。
Jun, 2022
该研究表明,大型预训练语言模型本质上具有高度识别自然语言数据集中标签错误的能力:仅通过按微调任务损失的降序检查样本数据点,可显著优于先前工作中提出的更复杂的错误检测机制。此外,研究对引入 SNLI 和 TweetNLP 等现有众包数据集中真实的、人工标记噪声提出了一种新方法,证明该噪声具有类似于真实手动验标错误的属性,并且比现有的合成噪声更难以检测,因此将人工起源噪声作为评估标准更好。最后,使用众包验证评估在 IMDB、Amazon 评论和 Recon 中实际错误的检测,并确认预训练模型的绝对精度召回曲线下面积比现有模型高 9-36%。
May, 2022
噪声标签对基于深度学习的监督图像分类性能有负面影响,而自监督预训练权重的模型初始化可以减少特征损坏并提高分类性能,但尚未探索其他自监督方法对噪声标签的影响以及医学图像中仅使用自监督预训练方法对噪声标签的影响。本研究探索了对两个医学数据集进行对比和预备任务的自监督预训练,用于初始化深度学习分类模型的权重,结果显示使用自监督学习获得的预训练权重可以有效学习更好的特征,并提高对噪声标签的鲁棒性。
Aug, 2023
本文提出了一种名为 LNSR 的 fine-tuning 框架,通过注入高斯噪声或浸入式噪声,对 fine-tuned 模型的隐藏表示进行规范化,以解决预训练语言模型的过拟合问题,并证明其在 question answering task 方面具有优越性。
Jun, 2022
该论文提出了一种基于无标签干扰数据集训练深度卷积神经网络的新型框架,并使用一个无向图模型来描述干净和嘈杂标签之间的关系,在监督学习过程中学习这个模型。该模型在图像标注问题上应用,并在 CIFAR-10 和 MS COCO 数据集上展示出有效的标注效果和在训练中实现了减少标签噪声的效果。
May, 2017