粗细粒度分类问题中的细粒度鲁棒性
本研究提出了一种基于标签质量而非模型预测的学习方法——Confident Learning(CL),通过对数据进行剪枝、使用概率阈值计数来估算噪声,并对样本进行排序,以提高其置信度。我们基于假设类条件噪声过程直接估算了噪声标签和无污染标签之间的联合分布,提出了一种广义CL,它是可证明一致和实验表现优异的。我们在不同类型数据上运用CL,包括MNIST数据集、Amazon评论库、以及ImageNet数据集的一些子集,结果表明CL可以清除不同类型数据中的噪声,提高模型准确性。
Oct, 2019
该论文提出了引入多样性块和梯度提升损失函数两个关键创新点的细粒度识别方法,来解决先前方法在查找亚类别差异性和识别混淆类别上的局限性。在五个挑战性数据集上的全面实验表明,该方法在所有五个数据集上都比使用类似实验方案的现有方法表现更优。
Dec, 2019
本文提出了一种两阶段的清洗样本识别方法来解决深度模型在无噪声标签时的过拟合问题,其中包括类别不平衡和实例依赖的噪声模式等挑战。该方法既能够在预测中利用类别信息识别近类预测中的干净样本,又能够通过两个分类器头的一致性来识别接近真实类别边界处的干净样本。实验结果表明,该方法在各种基准测试上优于现有的 state-of-the-art 方法。
Jul, 2022
本文提出了一种名为 Evolving Sub-centers Learning 的新方法,通过对大规模嘈杂人脸图像的潜在空间进行准确的描述,解决了算法在不同 N、K 和 C 下的灵活性带来的问题,并在合成嘈杂数据集上通过详细的消融研究证明了其显著的性能提升。
Aug, 2022
本研究旨在寻找一种有效的解决方法,以应对在细粒度数据集上进行嘈杂标签学习(LNL-FG)的挑战,为此,研究人员提出了一种称为随机容限监督对比学习(SNSCL)的新框架,旨在通过促进可辨别表达形式来解决标签噪音问题。该方法综合了加权机制与避免插入噪声标签的动量联想队列,以及一种从生成的分布中对特征嵌入进行采样的高效随机模块。大量实验表明了SNSCL的有效性。
Mar, 2023
文章中提出了一种新的方法来实现医学影像的细粒度子类分割,通过利用任务驱动的数据生成方法、先验拼接模块以及分层混合模型等技术手段,使模型在有限的子类注释数据和充分的高层次注释数据下实现与仅采用子类注释数据相近的结果。
Jul, 2023
将未标记的数据合并到半监督分类问题的一个新框架中,借助分布鲁棒优化 (Distributionally Robust Optimization) 和自我监督训练的组合,提供了新的错误界限以及将离域样本用于缩小泛化差距的方法。
Sep, 2023
通过利用增强和蒸馏技术,AD-Net框架通过自我蒸馏技术在增强样本上优化学习特征,减轻有害的过拟合,从而在弱数据条件下提高深度神经网络性能,相对于标准ResNet-50和最先进的低数据技术的SOTA接近者,我们的框架相对准确度最高可达到45%和27%,我们强调我们的方法在体系结构上是独立的,并且在推理时间上不增加任何额外成本。
Jun, 2024