本研究中,我们解耦学习过程,系统地探索不同平衡策略如何影响长尾识别的表示学习和分类器。我们的发现表明,数据不平衡在学习高质量表示方面可能不是问题,在使用最简单的实例平衡抽样进行学习表示的情况下,只需调整分类器就能实现强大的长尾识别能力,甚至可以胜过精心设计的损失、采样策略以及使用记忆组件的复杂模块。
Oct, 2019
本文提出了通过使用平衡的特征损失,通过课程学习来加强长尾类别的激励,强化尾部类别的特征规范,从而提高了长尾问题的性能,并在多个受欢迎的长尾识别基准上实现了优越的性能增益。
May, 2023
本研究提出通过保留特定类别低频率的能力,并设计了一种有效的残差融合机制来缓解极不平衡数据分布的深度学习算法应用长尾数据分布时普遍存在的问题,通过在参数空间的角度来解决长尾识别问题,并在多个基准数据集上进行了测试,证明了方法的有效性。
Jan, 2021
本文系统总结了深度长尾学习的最新进展,围绕着类别再平衡、信息增强和模块改进三个主要类别对相关方法进行详细探讨,并通过提出的相对准确度评估指标对最先进的方法进行了实证分析,为深度长尾学习的应用和未来研究方向提供了重要的参考。
Oct, 2021
本文提出了一个简单而有效的辅助学习方法,通过对神经网络进行分类器和特征提取器的拆分,并针对每个部分采用不同的训练策略,如采用类平衡采样方案来提高对尾部类别的重视,并通过自监督学习进一步提高性能,从而解决了类别不平衡问题。
Dec, 2019
本文从领域自适应的角度分析了分类中长尾类别分布的问题,提出了基于元学习的显式估计类别条件分布差异的方案,并在六个基准数据集和三个损失函数上进行了验证。
Mar, 2020
该研究提出了一种新的类实例平衡损失 (CIBL) 方法,以在训练数据的类频率不平衡时,通过重新平衡交叉熵损失和对比损失的相对贡献来获得更平衡的性能表现,并且通过使用余弦分类器,可以在更少的 epochs 中获得类似的性能表现。
Jul, 2023
提出了一种新的框架 CBD,利用知识蒸馏增强特征表示,通过使用类平衡采样,第二阶段的训练使得特征表示能够在少数类上进化,可以自然的适用多个 Teachers,并在 ImageNet-LT,iNaturalist17 和 iNaturalist18 数据集上取得比现有技术更好的性能。
Apr, 2021
本文针对训练数据集不均衡和 miscalibration 等问题,设计了两种方法,分别为标签感知平滑和批次偏移规范化,并在多个长尾识别基准数据集上创造了新记录。
该论文针对长尾数据分类的问题,从特征层面提出了特征增强及对数调整方法,用以平衡嵌入(embedding)分布,消除分类器偏差,实验表明该方法超越了现有的最佳方法。