SMCL:用于长尾识别的显著性掩蔽对比学习
该论文研究了如何通过有针对性的监督对比学习,提高长尾识别中少数类的识别准确率,提出了针对性的监督对比学习方法 (TSC),通过让不同类别的特征向量在训练过程中收敛至不同且均匀分布的目标点,从而提高了特征空间的均匀性,改善类别边界,提高了模型的泛化能力,实验结果验证了 TSC 方法在多个数据集上均取得了当下最先进的表现。
Nov, 2021
本研究提出一种适用于长尾数据的平衡对比学习方法 (BCL),通过均衡梯度贡献和多类别出现于每次 mini-batch 的方式,使分类器实现更好的优化,并在多个长尾数据集上超过了现有竞争对手 (ClFAR-10-LT,CIFAR-100-LT, ImageNet-LT, 以及 iNaturalist2018)
Jul, 2022
通过在卷积神经网络中引入掩蔽操作作为额外的数据增强方法,并显式考虑显著性约束,本研究提出了一种改进的对比学习框架,以减轻包括掩蔽操作在内的对比学习中存在的问题,并在多个数据集、对比学习机制和下游任务上进行的广泛实验验证了其有效性和卓越性能。
Sep, 2023
本文研究基于对比学习的监督式分类学习策略,提出了一种混合网络结构,用于从不平衡的数据中学习更好的图像表征,以提高分类精度。具体而言,我们探索了两种对比损失的变体,以推动特征学习,从而实现更好的分类器。实验结果表明,基于对比学习的混合网络在长尾分类中优于传统方法。
Mar, 2021
使用监督对比损失(SCL)方法进行视觉表示学习,在长尾识别场景下,通过解耦 SCL 的训练目标和使用基于图像补丁的自我蒸馏来优化性能,实验证明该方法在长尾分类基准上具有卓越的准确率,并与集合方法相结合进一步提高性能。
Mar, 2024
本文提出了一种基于自我监督学习方法的特定任务变体对比学习称为 “遮蔽对比学习”,其更适用于异常检测,并提出了一种自我集成推断方法,通过利用辅助自我监督任务学习的能力进一步提高模型性能,在各种基准数据集上的表现显著超过以往的最先进方法。
May, 2021
本文提出了一种新的 “子类平衡对比学习(SBCL)” 方法,通过在表示空间中对头类聚类,以捕捉头类和尾类之间的两层类层次结构,实现了实例和子类平衡,并通过在不同类之间的子类对比学习来学习原始类标签。
Jun, 2023
本文提出 Self-Damaging Contrastive Learning (SDCLR) 的概念,通过一个动态的自我竞争模型来平衡长尾数据的表示学习,以实现对无监督训练的快速部署。
Jun, 2021
通过类增强对比学习方法,使用平衡的代理模型和参数优化策略,配合平衡的加权交叉熵损失函数,对于不平衡肌肤病变数据的分类问题进行了实验,证明了该方法的卓越性和有效性。
Jul, 2023
本研究提供一种从数据角度出发的 Boosted Contrastive Learning (BCL) 方法用于自监督长尾学习,以识别长尾分布的尾部数据,通过深度神经网络来自动驱动样本视图的信息差异,从而增强了标签无关情境下的长尾学习效率,并在广泛的基准数据集上展示了超过几种最先进方法的有效性。
May, 2022