自监督视觉表征学习中的密集语义对比
本文提出了一种名为VADeR的无监督学习方法,通过像素级对比学习来学习像素级别的视图无关的密集表示,该方法在多个密集预测任务中优于ImageNet监督预训练和强无监督基线。
Nov, 2020
本文提出了一种名为SCAN的新算法,该算法通过最大限度地防止语义指导损坏外观特征嵌入,有效的融合了有监督和自监督学习方法,取得了比以往的有监督和自监督方法更好的性能,并揭示了语义标签在辅助自监督方法中的作用。
Nov, 2020
本文介绍了一种基于像素的密集自监督学习方法,通过考虑局部特征之间的对应关系,实现了对密集预测任务的有效优化,包括物体检测,语义分割和实例分割。与基线方法 MoCo-v2 相比,该方法仅引入了微不足道的计算开销,但表现出了更好的性能。
Nov, 2020
本文提出了一种基于对比度学习的语义分割训练策略,使用像素级和标签基础对比损失的方法,能够在减少标记数据的情况下提高性能,并通过 Cityscapes 和 PASCAL VOC 2012 数据集的实验证明了该方法的有效性。
Dec, 2020
本文提出了一种语义对比学习的方法(SCL),将距离的聚类结构引入到无标注数据的特征空间中,并通过优化实例视觉相似性和聚类决策边界的一致性来推理出语义上的实体类别,以在发现未知类别决策边界方面具有显着优势。实验证明,SCL在六个物体识别基准测试中优于最先进的对比学习和深度聚类方法,尤其是在更具挑战性的精细和较大的数据集上。
Mar, 2021
本文研究了自监督学习在四个不同的大规模数据集上的对比学习方法,通过数据量、数据领域、数据质量和任务粒度,得出了有关成功自监督学习所需条件的新见解,其中包括:(i) 除500k张图像外,额外的预训练数据的收益有限;(ii) 添加来自另一个领域的预训练图像不会产生更通用的表示。(iii) 比较学习在细粒度的视觉分类任务中远远落后于监督学习。
May, 2021
本文将需要自我学习来改进现有模型的数据集偏差性进行了深入研究,并成功地在不同类型数据集上改善了模型,同时介绍了一种具有多尺度裁剪、强数据增强和近邻策略的改进自监督学习方法,并通过 MoCo 模型在语义分割和视频实例分割任务中实现了优秀的效果。
Jun, 2021
本文介绍了一种名为Multi-Level Contrastive Learning for Dense Prediction Task (MCL)的自监督学习方法,该方法通过实现一种装配多尺度图像的贡献任务,显式地编码绝对位置和比例信息,从而使神经网络能够学习区域语义表示。实验表明,MCL在各种数据集上始终优于最新的现有方法。
Apr, 2023