标签噪声下的鲁棒长尾学习
减少长尾数据标注成本的弱监督学习方法,有效保留了尾部样本的有监督信息,并提出了一种简单高效且具有强大理论保证的学习框架,通过对 ImageNet 等基准数据集的广泛实验证实了其有效性,优于最先进的弱监督方法。
Mar, 2024
本文考虑了在包含标签噪声的长尾数据集上的实例分割任务,并提出了一个新的数据集,该数据集是一个包含标签噪声的大型词汇长尾数据集,结果表明训练集中的噪声将阻碍模型学习稀有类别,并降低整体性能,从而激发我们探索有效解决这个实际挑战的方法。
Nov, 2022
本文重点研究在含有噪声标签的长尾多标签视觉数据中如何降噪,提出了一种 Stitch-Up 数据增强方法和一个 Heterogeneous Co-Learning 框架,实现去噪和更健壮的表征学习。通过两个挑战性基准测试,VOC-MLT-Noise 和 COCO-MLT-Noise,证明了该方法的有效性。
Jul, 2023
使用基于分布匹配的类原型和最优传输的伪标注方法,结合观察标签和伪标签的有效筛选标准,成功解决了长尾分布和标签噪声的联合问题,提供了更加平衡、准确的训练样本集,为具有标签噪声的长尾分类提供了有效的性能提升。
Apr, 2024
通过结合软标签修复与多专家集成学习的有效的两阶段方法,我们介绍了一种克服先前方法限制的方法,用于处理真实世界数据集中存在的噪声标签和类别不平衡问题,实验证实了我们的方法的优越性。
Mar, 2024
介绍了一个新的挑战,即噪声长尾分类(NLT),并设计了一种迭代噪声学习框架 Hard-to-Easy(H2E),通过将 “hard” 噪声降低到 “easy” 噪声来减轻了数据失衡的影响,并在长尾设置中超过了现有的去噪方法。
Jul, 2022
本文系统总结了深度长尾学习的最新进展,围绕着类别再平衡、信息增强和模块改进三个主要类别对相关方法进行详细探讨,并通过提出的相对准确度评估指标对最先进的方法进行了实证分析,为深度长尾学习的应用和未来研究方向提供了重要的参考。
Oct, 2021
本文提出了一种基于对比学习的通用框架,通过特定的学习方法,包括 re-weighting 模块和多项式交叉熵损失和 focal loss 的结合,有效解决了自然语言处理中长尾问题和噪声标签的负面影响。
Feb, 2023
本文通过构建 smooth-tail 数据实现对长尾数据的更精确检测,并通过逐步优化模型以达到提高模型性能的目的。通过在 LVIS v0.5 和 LVIS v1.0 数据集上进行实验验证了本方法的卓越性能。
May, 2023