本研究提供一种从数据角度出发的 Boosted Contrastive Learning (BCL) 方法用于自监督长尾学习,以识别长尾分布的尾部数据,通过深度神经网络来自动驱动样本视图的信息差异,从而增强了标签无关情境下的长尾学习效率,并在广泛的基准数据集上展示了超过几种最先进方法的有效性。
May, 2022
使用监督对比损失(SCL)方法进行视觉表示学习,在长尾识别场景下,通过解耦 SCL 的训练目标和使用基于图像补丁的自我蒸馏来优化性能,实验证明该方法在长尾分类基准上具有卓越的准确率,并与集合方法相结合进一步提高性能。
Mar, 2024
本文研究基于对比学习的监督式分类学习策略,提出了一种混合网络结构,用于从不平衡的数据中学习更好的图像表征,以提高分类精度。具体而言,我们探索了两种对比损失的变体,以推动特征学习,从而实现更好的分类器。实验结果表明,基于对比学习的混合网络在长尾分类中优于传统方法。
Mar, 2021
本研究提出一种适用于长尾数据的平衡对比学习方法 (BCL),通过均衡梯度贡献和多类别出现于每次 mini-batch 的方式,使分类器实现更好的优化,并在多个长尾数据集上超过了现有竞争对手 (ClFAR-10-LT,CIFAR-100-LT, ImageNet-LT, 以及 iNaturalist2018)
Jul, 2022
本文研究自监督学习在大规模数据集上的应用,提出了一种基于对比学习与聚类的硬负样本挖掘方法(DnC),在 less-curated 数据集上的预训练,可以显著提高自监督学习在后续任务上的表现效果,并与目前在高度筛选数据集上的最新水平保持竞争力。
May, 2021
该研究提出了一种名为 DCLR 的新框架,使用实例加权的方法惩罚误判造成的假负样本,并产生基于噪声的负样本,以确保表示空间的均匀性,提高自监督学习中的句子表示质量,并在七个语义文本相似性任务中实现了显著性能提升。
提出了一种新的理论框架来理解对比自监督学习方法,该方法采用双重 ReLU 网络(例如 SimCLR)。我们证明了每个 SGD 更新中的权重是由协方差算子更新的,并进一步说明了协方差算子的作用和应用。通过建立层次潜变量树模型并证明深度 ReLU 网络的隐藏层学习了该模型的潜变量,我们总结了通过对比自监督学习的初始随机选择法放大而形成的层次化特征。
Oct, 2020
本文提出了解决自监督对比学习中的批处理大小等参数问题的一种简单有效的基准方法(DCL),并对其进行了在多种基准测试中的复现和实时检验,最终实现了较少受亚优化超参数影响且性能不错的对比学习方法。
Oct, 2021
本文介绍了一种基于在线负样本对挖掘的自我监督深度学习范式,包括学生教师网络、正负样本对挖掘和三元组式的损失函数等,实验表明该方法可以有效地提高标签效率并在 ILSVRC-2012 上表现优异。
Feb, 2022
该论文研究了如何通过有针对性的监督对比学习,提高长尾识别中少数类的识别准确率,提出了针对性的监督对比学习方法 (TSC),通过让不同类别的特征向量在训练过程中收敛至不同且均匀分布的目标点,从而提高了特征空间的均匀性,改善类别边界,提高了模型的泛化能力,实验结果验证了 TSC 方法在多个数据集上均取得了当下最先进的表现。
Nov, 2021