无噪声标签训练深度神经网络的广义交叉熵损失
本文介绍了一种寻找对标签噪声具有内在容忍性的损失函数的方法,并提供了一些在多类分类问题中让该损失函数在风险最小化时具有内在容忍标签噪声的充分条件,同时通过实验验证了基于平均误差值的损失函数是内在鲁棒的,并且标准反向传播足以学习出真正的分类器。
Dec, 2017
本文探究了基于经验损失函数中内置的例子加权对抗不正常训练数据的鲁棒性深度学习,重点研究了与对数相关的梯度幅度以及未进行彻底研究的角度。研究发现,均方误差并没有平等地处理例子,梯度幅度的方差很重要,提出了一种称为改进均方误差(IMAE)的解决方案,证明了其在图像分类方面具有出色的效果。
Mar, 2019
本文提出了一种名为Symmetric cross entropy Learning的深度神经网络学习方法,通过将Cross Entropy与Reverse Cross Entropy相结合,解决了在标签噪声存在下CE的过拟合与欠拟合问题,并在多个基准数据集和真实世界数据集实验中表现出优于其他现有方法的效果。
Aug, 2019
本文提出一种新的信息论损失函数 L_DMI,其核心思想是一个广义版本的互信息算法 DMI,该损失函数可用于对深度神经网络进行标签噪声训练,不受噪声模式影响,具有理论保证,并能直接应用于现有分类神经网络。使用 L_DMI 在包括 Fashion-MNIST、CIFAR-10、Dogs vs. Cats、MR 等图像数据集和自然语言数据集以及真实数据集 Clothing1M 的各种合成噪声模式和噪声量下的分类任务中优于所有其他对手。
Sep, 2019
本文研究如何在存在噪声标签的情况下训练精确的深度神经网络。我们提出了一种名为Active Passive Loss(APL)的框架来构建稳健损失函数,其结合了两种互相促进的稳健损失函数。实验表明,我们的新的损失函数家族可以在大噪声率下始终优于现有方法。
Jun, 2020
本文探究均方误差作为深度神经网络回归模型的损失函数的性质,提出了均方误差的新特性使其成为更适合于DNN的回归损失函数,并阐述了MAE作为拉普拉斯分布错误的模型的优越性以及实现MAE比MSE更好地拟合深度神经网络回归的性能优势。
Aug, 2020
本文研究了应对“学习有噪音标签”问题的多种数据增广策略,通过在 CIFAR-10、CIFAR-100 和 Clothing1M 等数据集上的实验,发现在 warm-up 阶段和学习阶段使用不同的增广策略能够最有效地提高 DNNs 的鲁棒性,同时也提出了一种关于样本筛选的增广方法,该方法在对真实噪音数据集进行处理时比其他基线方法取得了更好的结果。
Mar, 2021
使用Jensen-Shannon抖动作为噪声容忍的损失函数, 将它与CE和MAE混合使用以改善可学习性,并区分噪声数据点周围的一致性。 通过用此方法在CIFAR和WebVision等数据集上进行试验表明能取得卓越的效果。
May, 2021
本文提出了一种针对大型数据集中的标注错误而设计的噪声鲁棒性损失函数,并研究了该损失函数的应用及如何选择适当的损失函数,在 cifar-100 数据集上表现出色,此外还提出了一种新的 Bounded Cross Entropy 损失函数。
Jun, 2023