提出一种新型半监督语义分割方法,结合像素级 L2 损失和像素对比损失以实现两个分割模型规则:图像增强之间的标签空间一致性性质和不同像素之间的特征空间对比性质,采用 DeepLab-v3+ 结构和多个数据集进行了广泛的实验,表现出最先进的性能。
Aug, 2021
本文提出了基于像素级别前提任务来学习密集特征表示的方法,并使用此方法在目标检测和语义分割数据集上超越了目前最好的方法
Nov, 2020
本文提出了一种基于对比度学习的语义分割训练策略,使用像素级和标签基础对比损失的方法,能够在减少标记数据的情况下提高性能,并通过 Cityscapes 和 PASCAL VOC 2012 数据集的实验证明了该方法的有效性。
Dec, 2020
提出了一个利用对比学习实现像素级别度量学习的语义分割框架,能够从全局上探索标记像素的结构,并在多个数据集上带来了显著的性能改进。
Jan, 2021
本文介绍了一种基于像素的密集自监督学习方法,通过考虑局部特征之间的对应关系,实现了对密集预测任务的有效优化,包括物体检测,语义分割和实例分割。与基线方法 MoCo-v2 相比,该方法仅引入了微不足道的计算开销,但表现出了更好的性能。
本研究基于半监督度量学习方法,提出了四种对应关系来捕捉低 - level 图像相似性、语义标注、共现和特征亲和力。这些节点可以从任何部分注释的训练图像中以数据驱动的方式进行学习,因此,该模型不仅适用于弱监督分割中标记的像素,还适用于未标记的像素。
May, 2021
本研究提出了一种半监督语义分割的新方法,采用对比学习模块,通过维护持续更新的内存库,将具有相同类别的样本的像素级特征表示相似,通过端到端的训练,优化标注和未标注数据的特征,能够在公共基准测试中取得比半监督语义分割和半监督领域适应的现有技术更好的表现,尤其在标注数据较少的情况下有更大的提升。
Apr, 2021
引入对比检测算法的自监督目标,通过在图像增强中识别物体水平特征提取富有学习信息的信号,实现高效的自监督预训练,拥有多种下游任务的领先转移精度。在 ImageNet 预训练模型表现与大型自监督系统 SEER 相当的同时,需要少至 10 倍的预训练数据量,最终该目标还能轻松应对更复杂的图像。
Mar, 2021
本文提出了一种基于像素级原型对比度的弱监督语义分割方法,通过两种直观的先验知识,对图像的不同视角和单个视角内进行执行,旨在实施跨视图特征语义一致性规则,并促进特征空间的内部(间)类一致性(离散度),从而提高了两个强基线模型的精度,并在 PASCAL VOC 2012 上实现了新的最先进水平。
Oct, 2021
本论文针对计算机视觉中重要的挑战之一 —— 构建数据有效且能处理罕见对象类别的实例分割模型,研究了一种使用数据增强方法的 Copy-Paste 方法,并发现简单的随机粘贴对象机制足以提供良好的性能,并且能够与半监督学习方法相结合获得更好的结果。在 COCO 实例分割任务和 LVIS 评测中,该方法均获得了优异的表现。