本文介绍了一种寻找对标签噪声具有内在容忍性的损失函数的方法,并提供了一些在多类分类问题中让该损失函数在风险最小化时具有内在容忍标签噪声的充分条件,同时通过实验验证了基于平均误差值的损失函数是内在鲁棒的,并且标准反向传播足以学习出真正的分类器。
Dec, 2017
本文提出一些理论上支持的噪声稳健损失函数,包括平均绝对误差以及交叉熵损失函数,并已在CIFAR-10,CIFAR-100与FASHION-MNIST数据集及人工产生的噪声标签上进行了实验,结果表明这些损失函数能够有效应对各种噪声标签情况。
May, 2018
本文提出了一种名为Symmetric cross entropy Learning的深度神经网络学习方法,通过将Cross Entropy与Reverse Cross Entropy相结合,解决了在标签噪声存在下CE的过拟合与欠拟合问题,并在多个基准数据集和真实世界数据集实验中表现出优于其他现有方法的效果。
Aug, 2019
本文提出一种新的信息论损失函数 L_DMI,其核心思想是一个广义版本的互信息算法 DMI,该损失函数可用于对深度神经网络进行标签噪声训练,不受噪声模式影响,具有理论保证,并能直接应用于现有分类神经网络。使用 L_DMI 在包括 Fashion-MNIST、CIFAR-10、Dogs vs. Cats、MR 等图像数据集和自然语言数据集以及真实数据集 Clothing1M 的各种合成噪声模式和噪声量下的分类任务中优于所有其他对手。
Sep, 2019
本文研究如何在存在噪声标签的情况下训练精确的深度神经网络。我们提出了一种名为Active Passive Loss(APL)的框架来构建稳健损失函数,其结合了两种互相促进的稳健损失函数。实验表明,我们的新的损失函数家族可以在大噪声率下始终优于现有方法。
Jun, 2020
使用Jensen-Shannon抖动作为噪声容忍的损失函数, 将它与CE和MAE混合使用以改善可学习性,并区分噪声数据点周围的一致性。 通过用此方法在CIFAR和WebVision等数据集上进行试验表明能取得卓越的效果。
May, 2021
本研究提出了一种无标签学习的新方法,将区间估计引入了样本选择过程,以更好地探索未被充分选择的正确标注但看似贴错标签的较大损失数据和代表性差的数据,提高了误标噪声下的学习鲁棒性。
Jun, 2021
通过研究损失函数的对称性,提出了一种新的损失函数——非对称损失函数,用于稳健的神经网络训练,得出了其理论性质和实验结果。
本文提出一种基于限制网络输出在固定向量置换集合上的稀疏正则化策略,旨在解决标签噪声存在时常用精度损失函数容易过拟合或欠拟合的问题,结果表明该方法在存在噪声标签和类不平衡情况下能够显著提高精度和优于现有方法。
Jul, 2021
本文研究了广泛应用的交叉熵损失函数,提出了一族损失函数comp-sum,包括了交叉熵、广义交叉熵、平均绝对误差等。我们首次给出了这些损失函数的H-相容性,进一步介绍了一种新的平滑对抗comp-sum损失函数,并证明了它们有助于在对抗性环境下提高模型的H-相容性。
Apr, 2023