利用特征分布的几何信息来引导模型学习尾类的潜在分布,并且通过特征不确定性建模以提高模型在测试领域中的泛化性能。
Jan, 2024
本文提出了通过使用平衡的特征损失,通过课程学习来加强长尾类别的激励,强化尾部类别的特征规范,从而提高了长尾问题的性能,并在多个受欢迎的长尾识别基准上实现了优越的性能增益。
May, 2023
在长尾分布的情景中,模型对尾部类别的识别能力受限于尾部样本的少量表示。本文提出了一种基于特征嵌入的正交不确定性表示方法(OUR)和端到端的训练策略,以改善模型的长尾现象。研究结果在长尾数据集上进行的综合评估表明,OUR 方法显著改善了模型的长尾现象,为其他长尾学习方法带来了一致的性能提升。
Oct, 2023
本文探究了图像流形的曲率,发现卷积神经网络在分类任务中的整体曲率表现具有特殊的特点,即初始速度的加速,接着进入了一个较长的平稳期和之后的再加速。此外,我们发现最后两层图层的曲率缺口与网络的泛化能力有很强的相关性,并观察到常见的正则化方法,如 mixup,在相比其他方法时,呈现出更平的表示特征。
本文提出了一种新的解决长尾图像识别中头尾偏差问题的方法,通过调整标签空间来平衡数据,从而提高分类性能。实验证明该方法可应用于多种模型,并为长尾特征学习提供了思路。
Aug, 2022
本研究中,我们解耦学习过程,系统地探索不同平衡策略如何影响长尾识别的表示学习和分类器。我们的发现表明,数据不平衡在学习高质量表示方面可能不是问题,在使用最简单的实例平衡抽样进行学习表示的情况下,只需调整分类器就能实现强大的长尾识别能力,甚至可以胜过精心设计的损失、采样策略以及使用记忆组件的复杂模块。
Oct, 2019
该论文针对长尾数据分类的问题,从特征层面提出了特征增强及对数调整方法,用以平衡嵌入(embedding)分布,消除分类器偏差,实验表明该方法超越了现有的最佳方法。
本文提出了一种基于鲁棒性理论的新型损失函数,旨在解决深度模型在处理不平衡数据时的分类偏差问题,从而提高对于长尾类别的识别准确性。在多项基准测试中,通过降低特征空间中头类别的表示偏差,该方法相较于已有方法以及 SOTA 方法均得到了更好的效果。
Apr, 2021
本研究提出一种适用于长尾数据的平衡对比学习方法 (BCL),通过均衡梯度贡献和多类别出现于每次 mini-batch 的方式,使分类器实现更好的优化,并在多个长尾数据集上超过了现有竞争对手 (ClFAR-10-LT,CIFAR-100-LT, ImageNet-LT, 以及 iNaturalist2018)
Jul, 2022
通过多目标优化,我们提出一种梯度平衡聚类(GBG)策略,以应对现实世界数据中的类别不平衡和长尾分布问题,并在长尾学习中展现出比现有方法更优越的性能。