Sy-CON: 对称对比损失用于连续自监督表示学习
本文提出了一种基于对比学习的新的损失函数 TCL,该函数能够推广到批处理的多个正负样本,同时提供了参数来调整梯度响应,优化了难例的响应,理论和实验都证明了它的效果优于 SupCon
May, 2023
本文介绍了一种基于对比学习的自我监督表征学习方法,并将其推广到全监督设置中。其中,相同类别的样本点在嵌入空间中被拉在一起,而来自不同类别的样本则被同时推开,以实现更好的分类性能。实现简单,最佳损失函数表现优于交叉熵。
Apr, 2020
基于多个相似性度量的新型多相似性对比损失(MSCon)提供了在不同相似关系下学习可推广嵌入的方法,通过自动学习对应相似性的对比权重,降低不确定任务的影响,从而在内部和外部领域中优于最先进的基准模型。
Jul, 2023
本文发现在连续学习的情境中,通过对比学习方法学习到的表示对抗遗忘更加鲁棒,基于该观察,我们提出了一种基于重复学习的算法,该算法着重于持续学习和维护可转移的表示,并在常见的基准图像分类数据集上进行了广泛实验验证,该方法取得了最新的最佳性能。
Jun, 2021
本研究介绍了自同对比学习 (SelfContrastive) 和多出口模型 (multi-exit architecture),以达到在 ResNet-50 上进行 ImageNet 分类的目的。SelfCon 通过多路单一网络计算出多个图像特征来替代传统的多视图方法,其精度相较于传统方法提升了 0.6%,同时只需用传统方法的 59% 的内存和 48% 的训练时间。
Jun, 2021
本文探讨了基于少量标注数据的持续半监督学习问题,并设计了一种利用度量学习和一致性正则化的新方法,仅依赖 25% 的监督数据即可优于全监督训练下的 SOTA 方法。
Aug, 2021
本研究提出了一种简单而有效的对比学习框架来解决 Contrastive Self-supervised Learning (CSL) 中样本不足问题,将同一个输入的不同视角拉近,不同输入的视角推远,提高了视觉表征的质量,并在 ImageNet-1K 数据集上表现出了超越完全监督训练版本的性能。
Aug, 2022
本文提出了一种基于实例区分的方法 PairSupCon,旨在通过高级分类概念编码在语义蕴含和矛盾理解之间建立联系。该方法在各种下游任务中均取得了极好的效果,超过了先前的最先进方法。
Sep, 2021
提出了一种自监督学习方法,适用于对象检测和语义分割等半全局任务,通过在训练期间最小化像素级的本地对比损失(LC-loss),在自学习特征中强制实现对变换后的同一图像的相应图像位置之间的本地一致性,可将 LC-loss 添加到现有的自监督学习方法中,并在 COCO、PASCAL VOC 和 CityScapes 数据集上评估 SSL 方法,结果比现有的先进自监督学习方法在 COCO 对象检测、PASCAL VOC 检测和 CityScapes 分割等任务上分别提高了 1.9%,1.4%和 0.6%。
Jul, 2022
本研究提出了两种基于对比自监督学习(CSSL)的方法来缓解过拟合的问题,具体地,我们使用 CSSL 对图形编码器进行预训练,并在标记后的图形上调整预先训练的编码器。我们还开发了一个基于 CSSL 的正则化器,同时解决监督分类任务和无监督 CSSL 任务。通过数据增强的方式,定义了对比损失来学习图形编码器。实验结果表明,我们提出的方法在各种图形分类数据集上都非常有效。
Sep, 2020