针对长尾识别的有监督对比学习
本文研究基于对比学习的监督式分类学习策略,提出了一种混合网络结构,用于从不平衡的数据中学习更好的图像表征,以提高分类精度。具体而言,我们探索了两种对比损失的变体,以推动特征学习,从而实现更好的分类器。实验结果表明,基于对比学习的混合网络在长尾分类中优于传统方法。
Mar, 2021
本文提出Parametric Contrastive Learning(PaCo)来解决长尾识别问题,通过引入一组类内可学习参数来重新平衡优化,PaCo可以自适应地提高将同类样本推向一起的强度,并造福于难度样本学习。实验表明,使用PaCo loss在长尾CIFAR,ImageNet,Places和iNaturalist 2018上具有新的领先水平。
Jul, 2021
本研究提出一种适用于长尾数据的平衡对比学习方法(BCL),通过均衡梯度贡献和多类别出现于每次 mini-batch 的方式,使分类器实现更好的优化,并在多个长尾数据集上超过了现有竞争对手(ClFAR-10-LT,CIFAR-100-LT, ImageNet-LT,以及iNaturalist2018)
Jul, 2022
本文提出了一种新的解决长尾图像识别中头尾偏差问题的方法,通过调整标签空间来平衡数据,从而提高分类性能。实验证明该方法可应用于多种模型,并为长尾特征学习提供了思路。
Aug, 2022
本文提出了一种集成对比学习和分类器调整技巧的方法,旨在优化长尾数据集下的表征学习。通过最大化隐变量和真实标签之间的互信息,该方法在长尾识别任务和图像分割任务中展现了领先水平。
May, 2023
本文提出了一种新的“子类平衡对比学习(SBCL)”方法,通过在表示空间中对头类聚类,以捕捉头类和尾类之间的两层类层次结构,实现了实例和子类平衡,并通过在不同类之间的子类对比学习来学习原始类标签。
Jun, 2023
本文介绍了一种名为双分支长尾识别(DB-LTR)的简单而有效的模型,它包括一个不平衡学习分支和一个对比学习分支(CoLB),通过利用常见的不平衡学习方法来解决数据不平衡问题,并通过对比学习分支来改善模型对尾部类别的适应能力,并学习出一个具有很好表现特征空间和有区分度的决策边界。在CIFAR100-LT、ImageNet-LT和Places-LT三个长尾基准数据集上的大量实验证明,DB-LTR相比比较方法具有竞争力且卓越。
Sep, 2023
通过将受监督的对比损失整合到基于交叉熵的通信中,解决了长尾学习问题。具体而言,使用Rebalanced Contrastive Learning (RCL)方法来提高长尾分类准确度,通过实现几个关键方面,即特征空间均衡、类内紧凑性和正则化。在Balanced Contrastive Learning (BCL) Framework中实施RCL,实验结果表明RCL提供了对BCL框架的丰富嵌入以及更高的准确度。同时,RCL作为一个独立的损失函数,也实现了与最先进方法相当的准确度水平。
Dec, 2023
使用监督对比损失(SCL)方法进行视觉表示学习,在长尾识别场景下,通过解耦SCL的训练目标和使用基于图像补丁的自我蒸馏来优化性能,实验证明该方法在长尾分类基准上具有卓越的准确率,并与集合方法相结合进一步提高性能。
Mar, 2024
在研究中,我们提出了一种新颖的概率对比学习算法(ProCo),它通过估计特征空间中每个类别的样本数据分布并相应地采样对比对,以克服由于数据不平衡而导致的标准有监督学习算法性能下降的难题。我们引入了一个合理简单的假设,即在对比学习中,归一化特征遵循单位空间上的一组von Mises-Fisher(vMF)分布的混合分布,利用该分布参数的估计,我们可以采样无限数量的对比对,并得到了对比损失的闭合形式,从而实现高效优化。
Mar, 2024