使用关于Gumbel优化的损失函数进行长尾实例分割
本文针对长尾大词汇物体检测的低效性进行了系统分析,提出了一种基于组内平衡Softmax(BAGS)的解决方案,它能够通过分组培训平衡分类器,显著提高检测器的性能,超越了源自长尾图像分类的所有现有方法,并在最新的LVIS检测基准数据集上实现了新的最佳结果。
Jun, 2020
本文旨在研究并解决现有的目标检测和分割模型在长尾数据集上的失效问题,通过对现有的两阶段实例分割模型Mask R-CNN在最近的长尾LVIS数据集上的表现进行系统调研后,我们发现不准确的对象提案分类是其表现下降的主要原因,然后我们提出了一种用于改进长尾分类性能的简单校准框架,它可以更有效地减轻分类头偏差,并结合二级类平衡采样方法。 在我们的实验中表现良好,提高了最近LVIS数据集和我们采样的COCO-LT数据集的尾部类别实例分割的准确性。
Jul, 2020
为解决不平衡梯度导致的长尾目标检测困难,本研究提出了一种新的均衡损失(EQL v2)。实验结果表明,EQL v2 在 LVIS 基准测试中表现优异,比起原 EQL 可提高 4 个点的总 AP 值和 14-18 个点的罕见类别 AP 值,并且甚至超过了分离式训练方法。
Dec, 2020
本文提出一种新的自适应损失(DropLoss),用于解决目标检测中长尾类别分布下的损失不平衡问题,以改善罕见类别的预测结果,提高模型在LVIS数据集上的表现。
Apr, 2021
本研究探讨了一种后处理校准置信度分数的方法,提出了NorCal,基于训练样本大小来重新加权每个类别的预测分数,通过将背景类别和每个候选区域上类别的分数进行归一化来在长尾场景下增强性能,这种方法可以显著提高几乎所有基线模型的表现。
Jul, 2021
本文提出了Rank & Sort Loss,旨在解决训练深度目标检测和实例分割模型中存在的类别不平衡问题,通过该算法对分类器进行排名和排序,进一步提高了正样本的优先级和定位质量,且无需使用辅助头,经实验证明该算法优于传统的基线算法。
Jul, 2021
研究表明,采用传统的聚焦损失平衡训练流程难以解决长尾数据分布下某些类别正负样本不平衡的问题,作者因此提出了一种称之为 Equalized Focal Loss (EFL) 的损失函数,该方法采用与类别相关的调节因子来平衡不同类别的正负样本损失贡献,并通过 LVIS v1 基准测试表明该方法在稀有类别上有显著的性能提升。
Jan, 2022
本研究探讨使用混淆矩阵对长尾实例分割问题中不同类别间的精细误分类信息进行建模,从而解决训练样本不平衡引起的模型偏差问题,提出的 Pairwise Class Balance (PCB) 方法能够有效地进行模型规范化训练,实验结果表明该方法具有较强的泛化性能和优越的表现。
Jan, 2022
本文介绍了一种名为BAlanced CLassification(BACL)的统一框架,用于应对长尾数据分类偏差问题,该框架通过自适应校正类别分布中的不平等和动态增强样本多样性来解决这些问题。具体采用了前景分类平衡损失(FCBL)和动态特征幻化模块(FHM),在LVIS基准上取得了5.8% AP和16.1% AP的性能提升。
Aug, 2023