本研究中,我们解耦学习过程,系统地探索不同平衡策略如何影响长尾识别的表示学习和分类器。我们的发现表明,数据不平衡在学习高质量表示方面可能不是问题,在使用最简单的实例平衡抽样进行学习表示的情况下,只需调整分类器就能实现强大的长尾识别能力,甚至可以胜过精心设计的损失、采样策略以及使用记忆组件的复杂模块。
Oct, 2019
提出了两种新方法,一种是平衡取向的数据增强(Uniform Mixup),另一种是基于贝叶斯理论的 Bayes Bias,并通过理论和实验证明,这两种方法能够确保分类校准和提高性能。
Nov, 2021
使用高度资源有效的二进制神经网络作为骨干结构来学习长尾分布,通过校准和蒸馏框架利用平衡数据集上的预训练全精度模型作为教师,结合对目标函数术语的对抗平衡和高效的多分辨率学习方案,在 15 个数据集上对最新的长尾数据集进行了最大规模的实证研究,结果显示我们的方法在平均上大幅优于现有技术(>14.33%)。
Mar, 2024
本文提出了一种新的解决长尾图像识别中头尾偏差问题的方法,通过调整标签空间来平衡数据,从而提高分类性能。实验证明该方法可应用于多种模型,并为长尾特征学习提供了思路。
Aug, 2022
本文提出了一种新的分布校准方法,名为标签感知分布校准(LADC),它利用头部类的相关统计信息丰富尾部类,从而更准确地校准长尾分布的数据集。实验结果表明 LADC 显著优于现有的方法。
本研究探究基于 LVIS 数据集的极长尾数据对两阶段实例分割模型性能下降的现象,并发现物体提议分类的不准确是主要原因。通过将分类头部进行预测校准并不需要额外的费用和修改检测模型架构,可以大幅提高基线模型的识别性能。
本文提出了一种 Self Supervised 到 Distillation (SSD) 的概念简单却特别有效的多阶段训练方案,通过使用软标签,此方案能够很好的将标签相关性融入到多阶段训练方案中来有效的进行长尾识别,实验表明,我们的方法在几个长尾识别基准上均取得了最先进的结果。
Sep, 2021
提出了一种新的框架 CBD,利用知识蒸馏增强特征表示,通过使用类平衡采样,第二阶段的训练使得特征表示能够在少数类上进化,可以自然的适用多个 Teachers,并在 ImageNet-LT,iNaturalist17 和 iNaturalist18 数据集上取得比现有技术更好的性能。
Apr, 2021
本研究提出通过保留特定类别低频率的能力,并设计了一种有效的残差融合机制来缓解极不平衡数据分布的深度学习算法应用长尾数据分布时普遍存在的问题,通过在参数空间的角度来解决长尾识别问题,并在多个基准数据集上进行了测试,证明了方法的有效性。
Jan, 2021
本论文研究如何从长尾分布的样本中训练模型并校准,利用知识转移和重要性权重估算方法,将尾部类别的目标概率密度适应地从头部类别中传输,实现了长尾分布校准,并在多个数据集上证实了该方法的有效性。
Apr, 2023