迟滞:避免从标错样本中自信学习
该论文提出了一种叫做 Prestopping 的新的两个阶段的训练方法,它能够在任何类型的噪声标签下实现无噪声训练,并且通过对四个图像基准数据集的广泛实验证明,在真实世界噪声的存在下,我们的方法的测试效果比四种最先进的方法提高了 0.4-8.2 个百分点。
Nov, 2019
本论文提出一种分步训练深度神经网络的方法,称为渐进式提前停止(Progressive Early Stopping, PES),以对抗训练过程中的标签噪声。该方法可以显著提高图像分类质量,并结合现有标签噪声训练方法,达到了最新成果。
Jun, 2021
本研究提出了一种无标签学习的新方法,将区间估计引入了样本选择过程,以更好地探索未被充分选择的正确标注但看似贴错标签的较大损失数据和代表性差的数据,提高了误标噪声下的学习鲁棒性。
Jun, 2021
本研究提出了一种基于类别惩罚标签的强有力标准,通过平均预测置信度我们得到了适当的惩罚标签,在各个观察到的标签中达到高值,以强化对数量噪声标记的惩罚。在各种场景中,使用这些标准进行样本选择,相比现有方法,网络的学习过程对噪声标签变得更加稳健。
Jul, 2021
本文提出了一种新的方法,使用截断的 M 估计器来自适应地选择小损失的样本,并减少噪声标签对其的影响,同时利用丢弃的大损失的样本来帮助泛化,理论上证明了该方法具有容忍标签噪声的特性,经验上,全面的实验结果表明该方法在多种基准模型上表现出色,并且对各种噪声类型和水平具有鲁棒性。
Sep, 2023
提出了一种基于早期学习的新型噪声分类技术框架,使用半监督学习的目标概率和正则化项,防止深层神经网络过于依赖错误标注而导致的过拟合现象。测试结果表明,该方法在多个标准基准数据集和实际数据集上均能达到与现有先进技术可比的鲁棒性。
Jun, 2020
本研究提出了一种应对嘈杂标签的无监督半监督深度神经网络学习框架,通过在噪声图像标注中识别出标签准确度较高的部分数据,并利用半监督学习方式训练深度神经网络以更好地利用整个数据集。
Feb, 2018
本文提出一种噪声容忍的训练算法,其中在传统梯度更新之前进行元学习更新来模拟实际训练。通过生成合成噪声标签进行训练,该元学习方法训练模型,以便在使用每个设置的合成噪声标签进行一次梯度更新后,模型不会过度拟合特定的噪声,从而提高深度神经网络的性能。
Dec, 2018
该篇论文提出了一种纠正深度神经网络中标签不准确的技术:通过增加一个噪声模型的 softmax 层,采用端到端的随机梯度下降来优化网络以及噪声模型,借助 dropout 正则化防止噪声模型过于简单。在 CIFAR-10 和 MNIST 数据集上的数值实验显示,该 dropout 技术优于最先进的方法。
May, 2017