准确度指标的鲁棒性及其在带有噪声标签的学习中的启示
该研究探讨了标签噪声分类器的稳健性,旨在提高模型对复杂实际场景中的噪声数据的抵抗能力,并通过整合对抗机器学习和重要性重新加权技术来解决标签噪声对实际应用的影响。
Dec, 2023
本文介绍了针对大规模标注数据不可避免存在 label noise 问题时,通过使用 noisy classifiers 算法来提高模型鲁棒性,进而讲解了该算法的理论解释,并提出了一种基于该算法的标签校正方法,结合深度神经网络,成功提升了测试性能。
Nov, 2020
该研究论文探讨了高维二分类在具有条件性噪声标签的情况下的理论视角。通过研究具有标签噪声感知损失函数的线性分类器在维度 p 和样本数 n 都很大且可比时的行为,利用随机矩阵理论和高斯混合数据模型,证明了当 p 和 n 趋近于无穷时,线性分类器的性能收敛至涉及数据的标量统计量的一个界限。重要的是,我们的发现表明低维处理标签噪声的直觉在高维中不成立,即低维中的最优分类器在高维中出现显著失败。基于我们的推导,我们设计了一种优化方法,经证明在处理高维噪声标签方面更加高效。我们的理论结论在真实数据集上的实验证实了我们的优化方法优于考虑的基准方法。
May, 2024
该研究针对训练样本标签随机出错的分类问题,提出一种新的判别方法:通过对杂质标签的最大去噪实现真实类别条件分布的识别,其基础概念是相互不可约的真实类别条件分布,另外,相关实验表明,该方法在标杆数据和核粒子分类问题上具有有效性。
Mar, 2013
该论文研究了 NLP 中文本分类的标签噪声问题,提出了一种基于 beta 混合模型的辅助噪声模型,通过此模型可以减轻标签噪声对分类器的影响,提高分类准确率并防止过度拟合。
Jan, 2021
本文综述了深度学习中标签噪声的学习问题,提供了 62 种最新的鲁棒训练方法,并系统性比较了六个评估指标。同时,分析了噪声估计率和评估方法,并提出了未来的几个研究方向。
Jul, 2020
本研究提出了一种基于标签质量而非模型预测的学习方法 ——Confident Learning(CL),通过对数据进行剪枝、使用概率阈值计数来估算噪声,并对样本进行排序,以提高其置信度。我们基于假设类条件噪声过程直接估算了噪声标签和无污染标签之间的联合分布,提出了一种广义 CL,它是可证明一致和实验表现优异的。我们在不同类型数据上运用 CL,包括 MNIST 数据集、Amazon 评论库、以及 ImageNet 数据集的一些子集,结果表明 CL 可以清除不同类型数据中的噪声,提高模型准确性。
Oct, 2019
本研究证明,基于深度神经网络的图像分类模型可以从含有数量远多于准确标签的训练数据中进行有效学习,表现出良好的测试性能提升,这种学习需要增加数据集大小作为代价。
May, 2017
训练神经网络分类器在带有标签噪声的数据集上存在过拟合的风险,为了解决这个问题,研究人员探索了更加稳健的替代损失函数,然而,许多这些替代方法都是启发式的,仍然容易受到过拟合或欠拟合的影响。在本研究中,我们提出了一种更直接的方法来应对标签噪声引起的过拟合问题,我们观察到标签噪声的存在意味着噪声泛化风险的下界,基于这一观察,我们提出在训练过程中对经验风险施加一个下界来减轻过拟合问题。我们的主要贡献是提供了理论结果,给出了不同损失函数下噪声风险的最小可达下界的明确、易于计算的界限。我们通过实验证明,在各种设置中使用这些界限极大地提高了鲁棒性,几乎没有额外的计算成本。
Jul, 2023