本文研究了自监督学习中对比度学习的效率问题,提出了截断三元组的损失函数以同时解决聚类不足和聚类过度问题,并在多个基准测试中表示其优越性。
Apr, 2021
本研究介绍了自同对比学习 (SelfContrastive) 和多出口模型 (multi-exit architecture),以达到在 ResNet-50 上进行 ImageNet 分类的目的。SelfCon 通过多路单一网络计算出多个图像特征来替代传统的多视图方法,其精度相较于传统方法提升了 0.6%,同时只需用传统方法的 59% 的内存和 48% 的训练时间。
Jun, 2021
本研究对自监督学习中采用对比学习方法的常见预训练任务及各种方法进行了广泛的回顾,并通过图像分类,目标检测和动作识别等多个下游任务的性能比较,探讨了当前方法的限制以及未来发展方向。
Oct, 2020
本文提出了一种基于边界的理论框架,并推导出了一种新的有监督对比损失(epsilon-SupInfoNCE)和一种有效的去偏差正则化损失(FairKL),这些方法可以用于从偏差数据中学习无偏模型,并在多个偏差数据集上实现了最先进的性能。
Nov, 2022
通过向 SupCon 添加适当加权的类条件 InfoNCE 损失和类条件自编码器,可以在 5 个标准数据集上实现从粗糙到细致的迁移,以及在 3 个数据集上实现最差组的鲁棒性提高 4.7 个点,同时在 CelebA 上达到 11.5 个点的最优表现。
Apr, 2022
提出了一种基于弱监督对比学习的框架 (WCL),该框架使用两个投影头进行正则的实例区分任务,一头使用基于图形的方法找到相似的样本并生成弱标签,另一头使用这些弱标签进行有监督的对比学习任务,以拉近相似图像之间的距离。WCL 旨在解决现有对比学习框架中的类冲突问题,并在不同的数据集上提高了自监督表示品质,尤其是在半监督学习中达到了新的最优结果。
Oct, 2021
本文介绍了一种基于像素的密集自监督学习方法,通过考虑局部特征之间的对应关系,实现了对密集预测任务的有效优化,包括物体检测,语义分割和实例分割。与基线方法 MoCo-v2 相比,该方法仅引入了微不足道的计算开销,但表现出了更好的性能。
Nov, 2020
使用对比自监督学习结合聚类的方法,提出了一种新的半监督图像分类方法 ContraCluster,通过三个阶段的学习可选取出高精度的图像原型并再结合少量的无标签数据和原型的噪声标签进行半监督训练,成果达到了与有监督分类相当的高准确率。
Apr, 2023
通过比较对比句子嵌入方法中的标准基准 SimCSE 与计算机视觉社区中被称为维度对比的自监督损失函数和方法,我们发现使用维度对比目标训练的自监督嵌入能够在下游任务中胜过 SimCSE 而无需辅助损失函数。
Oct, 2023
本文研究基于对比学习的监督式分类学习策略,提出了一种混合网络结构,用于从不平衡的数据中学习更好的图像表征,以提高分类精度。具体而言,我们探索了两种对比损失的变体,以推动特征学习,从而实现更好的分类器。实验结果表明,基于对比学习的混合网络在长尾分类中优于传统方法。
Mar, 2021