对抗掩模对比学习用于静脉识别
本篇论文提出了 UnICLAM,一种通过对比表示学习与敌对遮盖进行统一解释的医学视觉问答模型,可用于心力衰竭等疾病的诊断,并且在公共基准上胜过了 11 种最先进的医学视觉问答模型。
Dec, 2022
本文介绍了一种新的神经网络训练框架,通过将对比学习与对抗训练相结合,增强了模型对对抗攻击的鲁棒性,同时保持高干净度的准确性。作者发现对比学习有助于提高对抗性鲁棒性,并使用 CIFAR-10 数据集验证了他们的方法,发现其优于其他监督和自监督方法。
Mar, 2022
本文提出了一种基于对比学习的 CV R 预测框架,使用大量无标签数据学习更好的数据表示,改善预测性能。通过嵌入掩蔽、虚假否定排除和监督正样本包含等方法,削弱了数据稀疏性的限制,实验证明其在真实世界的转化数据集上具有优越表现。
Jul, 2023
本文提出了一种基于自我监督学习方法的特定任务变体对比学习称为 “遮蔽对比学习”,其更适用于异常检测,并提出了一种自我集成推断方法,通过利用辅助自我监督任务学习的能力进一步提高模型性能,在各种基准数据集上的表现显著超过以往的最先进方法。
May, 2021
通过在卷积神经网络中引入掩蔽操作作为额外的数据增强方法,并显式考虑显著性约束,本研究提出了一种改进的对比学习框架,以减轻包括掩蔽操作在内的对比学习中存在的问题,并在多个数据集、对比学习机制和下游任务上进行的广泛实验验证了其有效性和卓越性能。
Sep, 2023
本文介绍了一种结合对比学习和深度生成模型的对比变分自编码器 (cVAE),旨在通过训练共享特征和不同特征的模型来发现和增强突出的潜在特征。实验表明,cVAE 可以有效地发现在特定分析中显著的潜在结构。
Feb, 2019
本文提出了一种新的方法,利用显著性遮罩和对比学习来减轻训练不平衡数据的问题并提高模型的泛化能力,在特征空间中将遮罩图像移向次要类别,以减少与原始类别相关的背景特征。实验证明,我们的方法在基准长尾数据集上获得了最先进的性能水平。
Jun, 2024
本文提出了一种简单的自监督预训练框架 ConMIM,使用对比学习的方法在图像补丁级别上进行去噪自编码,通过不同的异构设计来提高网络的预训练性能,从而在多个视觉任务上实现了竞争性结果,如 ImageNet 分类,语义分割,目标检测和实例分割等。
May, 2022
Contrastive Masked Autoencoders (CMAE) is a new self-supervised pre-training method that unifies contrastive learning (CL) and masked image model (MIM) for learning more powerful visual representation, achieving state-of-the-art results on image classification, semantic segmentation, and object detection tasks.
Jul, 2022