用于长尾目标检测的自适应类别压制损失
本文提出了一种基于等值损失的方法来解决LVIS数据集中大量罕见目标的问题,并利用检测数据集中类似目标的数据来缓解训练过程中丢失注释数据的影响,相对于基准模型Mask R-CNN,我们的方法在LVIS基准测试集上取得了5.1%的整体AP提升和11.4%的罕见目标AP提升,最终在LVIS Challenge 2019中取得了第一名的成绩。
Nov, 2019
本文提出了等化损失函数来解决卷积神经网络在大词汇和长尾数据集上的目标检测问题,通过简单的忽略稀有类别的梯度,保护稀有类别的学习不受到劣势影响,从而使得模型能够更好地学习稀有类别的物体的判别特征。通过实验证明,该方法在LVIS基准测试上,相对于Mask R-CNN基线,较为高效且能取得更好的检测效果。
Mar, 2020
本文针对长尾大词汇物体检测的低效性进行了系统分析,提出了一种基于组内平衡Softmax(BAGS)的解决方案,它能够通过分组培训平衡分类器,显著提高检测器的性能,超越了源自长尾图像分类的所有现有方法,并在最新的LVIS检测基准数据集上实现了新的最佳结果。
Jun, 2020
本研究提出了一种基于分类树和分类森林的方法 Forest R-CNN,通过利用对象类别之间的关系来构建分类树,re-balance 数据分布,以提高在大词汇量数据集 LVIS 上识别 1000 多个类别的目标识别模型的性能。实验表明,此方法在稀有类别和整体类别方面明显提高了性能,并在 LVIS 数据集上实现了最先进的结果。
Aug, 2020
本文提出一种新的自适应损失(DropLoss),用于解决目标检测中长尾类别分布下的损失不平衡问题,以改善罕见类别的预测结果,提高模型在LVIS数据集上的表现。
Apr, 2021
研究表明,采用传统的聚焦损失平衡训练流程难以解决长尾数据分布下某些类别正负样本不平衡的问题,作者因此提出了一种称之为 Equalized Focal Loss (EFL) 的损失函数,该方法采用与类别相关的调节因子来平衡不同类别的正负样本损失贡献,并通过 LVIS v1 基准测试表明该方法在稀有类别上有显著的性能提升。
Jan, 2022
本文通过构建 smooth-tail 数据实现对长尾数据的更精确检测,并通过逐步优化模型以达到提高模型性能的目的。通过在 LVIS v0.5 和 LVIS v1.0 数据集上进行实验验证了本方法的卓越性能。
May, 2023
本文介绍了一种名为BAlanced CLassification(BACL)的统一框架,用于应对长尾数据分类偏差问题,该框架通过自适应校正类别分布中的不平等和动态增强样本多样性来解决这些问题。具体采用了前景分类平衡损失(FCBL)和动态特征幻化模块(FHM),在LVIS基准上取得了5.8% AP和16.1% AP的性能提升。
Aug, 2023