本研究提出一种适用于长尾数据的平衡对比学习方法 (BCL),通过均衡梯度贡献和多类别出现于每次 mini-batch 的方式,使分类器实现更好的优化,并在多个长尾数据集上超过了现有竞争对手 (ClFAR-10-LT,CIFAR-100-LT, ImageNet-LT, 以及 iNaturalist2018)
Jul, 2022
通过将受监督的对比损失整合到基于交叉熵的通信中,解决了长尾学习问题。具体而言,使用 Rebalanced Contrastive Learning (RCL) 方法来提高长尾分类准确度,通过实现几个关键方面,即特征空间均衡、类内紧凑性和正则化。在 Balanced Contrastive Learning (BCL) Framework 中实施 RCL,实验结果表明 RCL 提供了对 BCL 框架的丰富嵌入以及更高的准确度。同时,RCL 作为一个独立的损失函数,也实现了与最先进方法相当的准确度水平。
Dec, 2023
该研究提出了一种新的类实例平衡损失 (CIBL) 方法,以在训练数据的类频率不平衡时,通过重新平衡交叉熵损失和对比损失的相对贡献来获得更平衡的性能表现,并且通过使用余弦分类器,可以在更少的 epochs 中获得类似的性能表现。
Jul, 2023
本文介绍了一种名为双分支长尾识别(DB-LTR)的简单而有效的模型,它包括一个不平衡学习分支和一个对比学习分支(CoLB),通过利用常见的不平衡学习方法来解决数据不平衡问题,并通过对比学习分支来改善模型对尾部类别的适应能力,并学习出一个具有很好表现特征空间和有区分度的决策边界。在 CIFAR100-LT、ImageNet-LT 和 Places-LT 三个长尾基准数据集上的大量实验证明,DB-LTR 相比比较方法具有竞争力且卓越。
Sep, 2023
该论文研究了如何通过有针对性的监督对比学习,提高长尾识别中少数类的识别准确率,提出了针对性的监督对比学习方法 (TSC),通过让不同类别的特征向量在训练过程中收敛至不同且均匀分布的目标点,从而提高了特征空间的均匀性,改善类别边界,提高了模型的泛化能力,实验结果验证了 TSC 方法在多个数据集上均取得了当下最先进的表现。
Nov, 2021
本研究中,我们解耦学习过程,系统地探索不同平衡策略如何影响长尾识别的表示学习和分类器。我们的发现表明,数据不平衡在学习高质量表示方面可能不是问题,在使用最简单的实例平衡抽样进行学习表示的情况下,只需调整分类器就能实现强大的长尾识别能力,甚至可以胜过精心设计的损失、采样策略以及使用记忆组件的复杂模块。
Oct, 2019
本文研究基于对比学习的监督式分类学习策略,提出了一种混合网络结构,用于从不平衡的数据中学习更好的图像表征,以提高分类精度。具体而言,我们探索了两种对比损失的变体,以推动特征学习,从而实现更好的分类器。实验结果表明,基于对比学习的混合网络在长尾分类中优于传统方法。
Mar, 2021
本文提出了一种新的解决长尾图像识别中头尾偏差问题的方法,通过调整标签空间来平衡数据,从而提高分类性能。实验证明该方法可应用于多种模型,并为长尾特征学习提供了思路。
Aug, 2022
本研究提供一种从数据角度出发的 Boosted Contrastive Learning (BCL) 方法用于自监督长尾学习,以识别长尾分布的尾部数据,通过深度神经网络来自动驱动样本视图的信息差异,从而增强了标签无关情境下的长尾学习效率,并在广泛的基准数据集上展示了超过几种最先进方法的有效性。
May, 2022
使用监督对比损失(SCL)方法进行视觉表示学习,在长尾识别场景下,通过解耦 SCL 的训练目标和使用基于图像补丁的自我蒸馏来优化性能,实验证明该方法在长尾分类基准上具有卓越的准确率,并与集合方法相结合进一步提高性能。
Mar, 2024