对比学习的硬视图选择
SimCLR是一种简单的对比学习框架,通过定义有效的预测任务、引入可学习的非线性变换以及使用大型批次和更多的训练步骤来提高对比学习的效果,在ImageNet数据集上实现了比以往方法更好的自监督和半监督学习结果。
Feb, 2020
这篇论文研究不同视角之间的关联性对于对比学习在无监督和半监督任务中的重要性,并提出通过减少视角之间的互信息来学习有效的视角以提高下游任务的准确性。同时,作者在ImageNet分类和PASCAL VOC目标检测以及COCO实例分割任务上通过对比实验展示了他们提出方法的高效性。
May, 2020
本论文探讨了基于对比学习的图像表示学习方法,提出了一种最大化互信息的下界的目标函数,并在实验中发现选择难度更大的负样本以及视角可以提高算法性能。通过比较多种学习方法,研究结果表明,基于互信息的目标函数可以使得算法在分类、边界框检测、实例分割和关键点检测等任务上获得更好的表现。
May, 2020
本文介绍了一种在线聚类算法SwAV,在不需要计算成对对比的基础上,通过使用一种被称为预测机制的方式来建立视图之间的一致性,并提出了一种新的数据增强策略多裁剪,在ImageNet数据集上达到75.3%的top-1准确率,并超出了所有考虑的迁移任务的监督预训练。
Jun, 2020
本文提出了一种对比学习方法,该方法不需要先前知道特定于任务的不变性,使用多头网络构建不同的嵌入空间来捕捉可变及不变的因素 以提高视觉表示的效果,并发现不变空间和变化空间的连接在包括数据破坏等各种下游分类任务中表现最佳。
Aug, 2020
研究表明, 在自监督学习中使用 hard negatives, 数据混合等技术可以提高视觉表示的质量, 本文提出了一种基于特征水平的硬负例混合策略, 并在多个任务上验证其有效性。
Oct, 2020
NNCLR是一种基于最近邻对比学习的自监督学习算法,将数据集中最近邻作为正样本而不是图像的不同视角,能够提供比预定义的变换更多的语义变化,达到了在ImageNet分类和迁移学习基准测试中超越现有先进方法的效果。此外,该方法的鲁棒性能更好,对于数据变换的依赖性更小。
Apr, 2021
提出了ContrastiveCrop,一种用于Siamese表示学习的更好对比对的生成方法,该方法采用全无监督方式提出了基于语义的目标定位策略并进一步设计了中心抑制采样来扩大裁剪区域的方差,成功提高了自我监督学习中SimCLR,MoCo,BYOL,SimSiam等方法的分类准确率,同时在基于ImageNet-1K预训练的下游检测和分割任务上取得了优异的结果。
Feb, 2022
为了增强对外域物体的检测鲁棒性,我们对对比学习进行了实证研究,并提出了加强鲁棒性的策略,包括改变裁剪百分比、添加 IoU 约束、整合显著性的对象先验,并探索了缩短路径的数据增强方法。在多个领域的基础上进行基准测试,整合多种策略,实验结果表明了如何通过选择视图提高对比学习的鲁棒性。
Dec, 2022
本文提出了一种学习高效自适应数据增强策略的对比学习框架,通过在训练过程中持续生成新的数据增强策略,无需任何监督,有效生成高质量的正负对,进而提升对比学习性能。实验证明,使用视图相关的增强策略训练优于使用所有视图共享的独立策略,在多个数据集和对比学习框架上验证了方法的一致优越性。
May, 2024