HoughCL:在密集自监督学习中找到更好的正样本对
本文介绍了一种基于像素的密集自监督学习方法,通过考虑局部特征之间的对应关系,实现了对密集预测任务的有效优化,包括物体检测,语义分割和实例分割。与基线方法 MoCo-v2 相比,该方法仅引入了微不足道的计算开销,但表现出了更好的性能。
Nov, 2020
本文提出了一种名为 CCL 的基于聚类的对比学习方法,利用聚类得到的标签和视频约束来学习具有区分性的人脸特征,展示了该方法在视频人脸聚类的表征学习任务上的显著成果。
Apr, 2020
论文提出了一种通过对比 RGB-D 数据的点 - 像素对,实现自监督预训练模型的方法,进而在多模态 RGB-D 扫描中为场景理解提供更多的灵活性,实现更好的预训练效果。
Dec, 2020
提出了一种名为 Positive-Unlabeled Contrastive Learning(PUCL)的新型对比学习方法,通过将负样本视为无标签样本,并利用正样本信息来修正对比损失,从而纠正了负采样偏差并提高了性能。
Jan, 2024
本文提出一种名为对比聚类 (Contrastive Clustering,CC) 的在线聚类方法,该方法实现了实例级和簇级对比学习,通过最大化正样本对的相似度和最小化负样本对的相似度,在特征空间中分别进行行级和列级的对比学习,同时优化实例级和簇级对比损失,在端到端的方式下联合学习表示和簇分配。实验结果表明,CC 在六项具有挑战性的图像基准任务中显着优于 17 种竞争对手的聚类方法,特别是在 CIFAR-10 和 CIFAR-100 数据集上,CC 的 NMI 分别为 0.705 和 0.431,相较于最佳基线提高了多达 19% 和 39%。
Sep, 2020
本文提出了一种基于 score-matching 函数的自监督对比学习方法 ScoreCL,通过自适应加权每对数据,改善了现有方法的性能,并在 CIFAR-10、CIFAR-100 和 ImageNet-100 上领先了多种方法,证明了其普适性。
Jun, 2023
该研究提出了一种名为 DDCL 的新型 POCL 框架和 DDL 损失函数,可以显式地分离和利用模型和特征流中的畸变变量表示(DVR),从而提高了整体表示利用效率、鲁棒性和表示能力。通过在多个基准数据集上进行实验,表明我们的框架优于 Barlow Twins 和 Simsiam 在收敛性、表示质量和鲁棒性方面。
Mar, 2023
本研究提出了一种基于语义正例对集合(SPPS)的方法,它可以降低在表示学习期间丢失重要特征的风险,并在 ImageNet,STL-10 和 CIFAR-10 数据集上验证了该方法的可行性。
Jun, 2023
本文探讨了无监督自学习对偶损失模型(SSCL)的理论基础,提出了在随机邻居嵌入(SNE)视角下,使用数据增强构建 “正” 偶对实现了对输入空间对比度的优化,通过与 SNE 对应,进一步提供了方法学指导并证明了使用域不可知增强与隐式偏见得到的潜在优势,同时证明了从 SNE 到 t-SNE 转换的适用性并在实验中取得了相应的优化效果。
May, 2022