研究通过一种名为 Learning with Ensemble Consensus (LEC) 的新训练方法解决了深度神经网络在存在标签噪声时过拟合的问题,该方法通过对众多神经网络的一定扰动下的结果进行共识,剔除出噪声样本,其中一个提出的 LEC,即 LTEC 在 MNIST,CIFAR-10,和 CIFAR-100 数据集上表现出更高的分类准确率,且效率较高。
Oct, 2019
本文针对网络训练时噪声标签的问题,提出了一种基于交叉验证和合作训练策略的解决方法,成功提高了深度神经网络在合成和实际噪音数据集下的泛化性能。
May, 2019
本研究证明,基于深度神经网络的图像分类模型可以从含有数量远多于准确标签的训练数据中进行有效学习,表现出良好的测试性能提升,这种学习需要增加数据集大小作为代价。
May, 2017
本研究提出了一种基于韦布尔混合模型的迭代选择方法来识别干净数据,从而减少网络记忆对虚假标签数据的影响,在模型训练中使用最终的干净子集。
Jun, 2023
本文介紹關於使用深度學習算法處理帶有噪聲標籤的問題,針對噪聲建立噪聲模型和使用魯棒損失、正則化等方法建立魯棒算法兩種子群進行了綜述。
Dec, 2019
使用 self-ensemble 标签过滤方法对深度神经网络在噪声标签下的学习进行改进,通过逐渐过滤错误标签来提高任务性能,同时在无监督损失中利用这些数据进行半监督学习,并在不同的数据集和噪声比率下优于以前所有的噪声感知学习。
该论文提出了一种基于无标签干扰数据集训练深度卷积神经网络的新型框架,并使用一个无向图模型来描述干净和嘈杂标签之间的关系,在监督学习过程中学习这个模型。该模型在图像标注问题上应用,并在 CIFAR-10 和 MS COCO 数据集上展示出有效的标注效果和在训练中实现了减少标签噪声的效果。
该研究介绍了一种利用特征空间中训练样例的相似性,鼓励每个样例预测与其最近邻居相似的学习方法,用于从带有噪声标签的数据中学习,并且在多个数据集上展现出良好的分类精度。
Feb, 2022
本文提出一种噪声容忍的训练算法,其中在传统梯度更新之前进行元学习更新来模拟实际训练。通过生成合成噪声标签进行训练,该元学习方法训练模型,以便在使用每个设置的合成噪声标签进行一次梯度更新后,模型不会过度拟合特定的噪声,从而提高深度神经网络的性能。
Dec, 2018
提出了一种新的深度自学习框架,用于在真实嘈杂的数据集上训练鲁棒性网络,无需额外的监督,并且与大多数现有方法不同,它不依赖于嘈杂标签分布的任何假设,具有更好的性能。
Aug, 2019