增强对比实例判别的语义正对组
提出了一种新的半监督学习方法 —— 通过伪标签的语义正例(SemPPL),结合标记和未标记的数据来学习信息表示,其通过自监督对比学习扩展了一种新的方法来选择正例。
Jan, 2023
本文重新思考了对比学习方法中二元实例判别的不足之处,提出了基于相关实例(即软近邻)的对比学习方法(SNCLR),该方法有效地提高了 VIT 和 CNN 编码器中的特征表示,从图像分类、目标检测和实例分割三个标准视觉识别基准方面得到了验证。
Mar, 2023
本文提出了一种基于实例区分的方法 PairSupCon,旨在通过高级分类概念编码在语义蕴含和矛盾理解之间建立联系。该方法在各种下游任务中均取得了极好的效果,超过了先前的最先进方法。
Sep, 2021
在过去的几年中,对比学习在视觉无监督表示学习的成功中起到了核心作用。我们仔细审查现有的多视图方法,并提出了一种通用的多视图策略,可以提高任何对比或非对比方法的学习速度和性能。我们首先分析了 CMC 的全图范例,并通过实验证明,在小的学习率和早期训练阶段,K 个视图的学习速度可以提高 K 次。然后,我们通过混合仅采用裁剪增强的视图、采用 SwAV 多裁剪中的小尺寸视图、修改负采样来升级 CMC 的全图。得到的多视图策略被称为 ECPP(高效组合正样本对)。我们通过将 ECPP 应用于 SimCLR,并评估其对 CIFAR-10 和 ImageNet-100 的线性评估性能来调查 ECPP 的有效性。对于每个基准,我们都取得了最先进的性能。在 ImageNet-100 的情况下,ECPP 提升后的 SimCLR 优于有监督学习。
Jan, 2024
提出了一种新的图文匹配模型,叫作主动挖掘样本对语义图文匹配模型 (AMSPS),该模型采用多样化的学习模式使模型更加关注无法处理的负样本,从未注释的项目中主动挖掘更多隐藏的相关语义表示,大大提高了模型的性能和泛化能力。在 Flickr30K 和 MSCOCO 通用数据集上的实验结果表明,我们提出的方法优于最先进的比较方法。
Nov, 2023
论文提出了一种通过对比 RGB-D 数据的点 - 像素对,实现自监督预训练模型的方法,进而在多模态 RGB-D 扫描中为场景理解提供更多的灵活性,实现更好的预训练效果。
Dec, 2020
提出了 ContrastiveCrop,一种用于 Siamese 表示学习的更好对比对的生成方法,该方法采用全无监督方式提出了基于语义的目标定位策略并进一步设计了中心抑制采样来扩大裁剪区域的方差,成功提高了自我监督学习中 SimCLR,MoCo,BYOL,SimSiam 等方法的分类准确率,同时在基于 ImageNet-1K 预训练的下游检测和分割任务上取得了优异的结果。
Feb, 2022
通过引入样本对间对比学习和原型 - 样本对比学习,提出了一种新颖的语义感知双对比学习框架,通过联合训练三个模块,准确捕捉与图像内容相关的判别性标签级特征,并在五个具有挑战性的大规模公共数据集上实验证明了该方法的有效性优于现有技术。
Jul, 2023
NNCLR 是一种基于最近邻对比学习的自监督学习算法,将数据集中最近邻作为正样本而不是图像的不同视角,能够提供比预定义的变换更多的语义变化,达到了在 ImageNet 分类和迁移学习基准测试中超越现有先进方法的效果。此外,该方法的鲁棒性能更好,对于数据变换的依赖性更小。
Apr, 2021
本文提出了一种新的不对称补丁采样策略,用于对比学习,以进一步增强外观不对称性以获得更好的表示,并在 COCO 数据集上实现了最先进的物体检测和实例分割性能。
Jun, 2023