掩蔽以改进卷积神经网络的对比式自监督学习,并揭示显著性
本研究采用掩蔽技术生成显著性地图,发现训练分类器的同时,采用掩蔽技术生成显著性地图具有很高的性能,并且 10 个样本每类也可以显著提高显著性地图的精度。
Oct, 2020
本文提出了一种基于自我监督学习方法的特定任务变体对比学习称为 “遮蔽对比学习”,其更适用于异常检测,并提出了一种自我集成推断方法,通过利用辅助自我监督任务学习的能力进一步提高模型性能,在各种基准数据集上的表现显著超过以往的最先进方法。
May, 2021
本文提出了一种新的方法,利用显著性遮罩和对比学习来减轻训练不平衡数据的问题并提高模型的泛化能力,在特征空间中将遮罩图像移向次要类别,以减少与原始类别相关的背景特征。实验证明,我们的方法在基准长尾数据集上获得了最先进的性能水平。
Jun, 2024
本文研究掩蔽 Siamese 网络在卷积神经网络下的问题,并提出多个经验设计来逐渐解决这些问题。该方法在低样本图像分类上表现有竞争力,并在目标检测基准测试中优于以前的方法。
Jun, 2022
本文提出了一种简单的自监督预训练框架 ConMIM,使用对比学习的方法在图像补丁级别上进行去噪自编码,通过不同的异构设计来提高网络的预训练性能,从而在多个视觉任务上实现了竞争性结果,如 ImageNet 分类,语义分割,目标检测和实例分割等。
May, 2022
本研究结合 Masked Image Modeling (MIM) 和 Siamese Networks 的自我监督学习方法,通过 MixMask 构建填充式遮蔽策略,创新性地提出了一种新的 MIM 和 Siamese ConvNets 混合方法。在 CIFAR-100,Tiny ImageNet 和 ImageNet-1K 等数据集上进行了广泛的实验,证明该方法在线性探测、半监督和监督微调等任务上均能取得明显的优势。同时在目标检测和分割任务中也有显著的改进。
Oct, 2022
通过数据驱动的前景显著性估计和复制粘贴来生成图像视图,实现对背景不变性的学习,从而训练代表性忽略背景内容并专注于前景的对比学习模型,并实现了在 ImageNet 分类和 PASCAL VOC、MSCOCO 目标检测上的显著性能提升。
Apr, 2020
通过在受限的可见类别上学习有标注遮罩,从而消除繁重注释负担,并在新颖的 unseen 类别上分割对象,部分监督实例分割是一个任务。本文提出了 ContrastMask,它在统一的像素级对比学习框架下,同时在可见和未知类别上学习掩模分割模型,提高了前景和背景的特征辨别率,促进了课程无关掩模分割模型的学习,在 COCO 数据集上的详尽实验证明了我们方法的优越性,胜过了之前的最新技术。
Mar, 2022
本文介绍了一种有效的方法 Masked Collaborative Contrast(MCC),以突出弱监督语义分割中的语义区域。MCC 巧妙地将掩蔽图像建模和对比学习的概念结合起来,设计了可诱导关键字收缩到语义相关区域的 Transformer 块。实验表明,MCC 机制有效地对齐了图像的全局和局部视角,取得了令人印象深刻的性能。
May, 2023
本文提出了一种基于掩模对比学习(CMP)的自监督视觉表示法,利用区域级特征对比而不是视角层级特征对比,以消除隐式的语义一致性假设并实现正样本的无假设定位。使用专门的掩模预测头解决了掩模和非掩模特征之间的域差异,实验结果表明该方法在自然数据集上获得了可比较的性能,并且在大量下游任务上比 MoCo V2 表现更强。
Aug, 2021