纠正长尾目标检测中的回归偏差
本文提出了等化损失函数来解决卷积神经网络在大词汇和长尾数据集上的目标检测问题,通过简单的忽略稀有类别的梯度,保护稀有类别的学习不受到劣势影响,从而使得模型能够更好地学习稀有类别的物体的判别特征。通过实验证明,该方法在LVIS基准测试上,相对于Mask R-CNN基线,较为高效且能取得更好的检测效果。
Mar, 2020
本文针对长尾大词汇物体检测的低效性进行了系统分析,提出了一种基于组内平衡Softmax(BAGS)的解决方案,它能够通过分组培训平衡分类器,显著提高检测器的性能,超越了源自长尾图像分类的所有现有方法,并在最新的LVIS检测基准数据集上实现了新的最佳结果。
Jun, 2020
为解决不平衡梯度导致的长尾目标检测困难,本研究提出了一种新的均衡损失(EQL v2)。实验结果表明,EQL v2 在 LVIS 基准测试中表现优异,比起原 EQL 可提高 4 个点的总 AP 值和 14-18 个点的罕见类别 AP 值,并且甚至超过了分离式训练方法。
Dec, 2020
该研究提出了一种名为ACSL自适应类别压制损失的方法来解决大词汇目标检测任务中长尾分布问题,并在LVIS和Open Images上取得了新的最佳表现。
Apr, 2021
本研究探讨了一种后处理校准置信度分数的方法,提出了NorCal,基于训练样本大小来重新加权每个类别的预测分数,通过将背景类别和每个候选区域上类别的分数进行归一化来在长尾场景下增强性能,这种方法可以显著提高几乎所有基线模型的表现。
Jul, 2021
研究表明,采用传统的聚焦损失平衡训练流程难以解决长尾数据分布下某些类别正负样本不平衡的问题,作者因此提出了一种称之为 Equalized Focal Loss (EFL) 的损失函数,该方法采用与类别相关的调节因子来平衡不同类别的正负样本损失贡献,并通过 LVIS v1 基准测试表明该方法在稀有类别上有显著的性能提升。
Jan, 2022
提出了一种简单但有效的方法——实例感知重复因素采样(IRFS),该方法可以通过将实例计数和图像计数统一来增强长尾数据集中罕见类别目标检测模型的泛化性能,并在多种架构和骨干网络上展示出显著的改进效果,是一种强大的基准模型。
May, 2023
本文通过构建 smooth-tail 数据实现对长尾数据的更精确检测,并通过逐步优化模型以达到提高模型性能的目的。通过在 LVIS v0.5 和 LVIS v1.0 数据集上进行实验验证了本方法的卓越性能。
May, 2023
本文介绍了一种名为BAlanced CLassification(BACL)的统一框架,用于应对长尾数据分类偏差问题,该框架通过自适应校正类别分布中的不平等和动态增强样本多样性来解决这些问题。具体采用了前景分类平衡损失(FCBL)和动态特征幻化模块(FHM),在LVIS基准上取得了5.8% AP和16.1% AP的性能提升。
Aug, 2023