关于标签噪声下决策树学习的鲁棒性
本研究探索了如何利用深度学习中的损失设计思路来提高决策树的鲁棒性,发现传统的损失修正和对称损失方法并不有效,指出需要探索其他方向来改善决策树对标签噪声的鲁棒性。
May, 2024
该研究探讨了标签噪声分类器的稳健性,旨在提高模型对复杂实际场景中的噪声数据的抵抗能力,并通过整合对抗机器学习和重要性重新加权技术来解决标签噪声对实际应用的影响。
Dec, 2023
本论文研究了机器学习中存在的标签噪音问题,提出了一个理论框架来模拟标签噪音分布对分类性能的影响,并发现标签噪音的分布对分类精度有很大的影响,尤其是当噪音集中在特定的特征空间时。此外,论文还探讨了一些解决噪音问题的方法,并发现存在一些困难。
Jun, 2022
使用含噪标记数据训练决策树,研究能够导致健壮学习算法的损失函数。首先,我们在决策树学习领域提供了有关许多现有损失函数健壮性的新理论见解。其次,我们介绍了一种构建健壮损失函数的框架,称为分布损失。最后,我们的多个数据集和噪声设置上的实验证实了我们的理论洞察力和自适应负指数损失的有效性。
Dec, 2023
本文介绍了一种寻找对标签噪声具有内在容忍性的损失函数的方法,并提供了一些在多类分类问题中让该损失函数在风险最小化时具有内在容忍标签噪声的充分条件,同时通过实验验证了基于平均误差值的损失函数是内在鲁棒的,并且标准反向传播足以学习出真正的分类器。
Dec, 2017
基于混合整数规划技术,我们提出了一种学习鲁棒分类树的方法,通过问题转化和约束生成的解决方法,在公共可用数据集上展示了最差情况准确率提高了 12.48%,平均情况准确率提高了 4.85%。
Oct, 2023
研究两种方法来提高 AdaBoost 算法对标签误差的鲁棒性,一种是使用标签噪声鲁棒的分类器作为基础学习器,另一种则是修改 AdaBoost 算法以提高鲁棒性。实证评估表明,鲁棒分类器的集合虽然比不考虑标签噪声的 AdaBoost 算法收敛得更快,但仍容易出现标签误差。然而,将其与我们在此提出的新的鲁棒 Boosting 算法配对,能够获得更具弹性的算法。
Sep, 2013
本文介绍了针对大规模标注数据不可避免存在 label noise 问题时,通过使用 noisy classifiers 算法来提高模型鲁棒性,进而讲解了该算法的理论解释,并提出了一种基于该算法的标签校正方法,结合深度神经网络,成功提升了测试性能。
Nov, 2020
该论文研究了 NLP 中文本分类的标签噪声问题,提出了一种基于 beta 混合模型的辅助噪声模型,通过此模型可以减轻标签噪声对分类器的影响,提高分类准确率并防止过度拟合。
Jan, 2021