通过提炼特征对应关系进行无监督的语义分割
本研究考虑了在语义分割的无监督域自适应中,如何减轻源域(合成数据)和目标域(真实数据)之间的领域偏移问题。通过不同策略的语义级别对齐使得杂物类别通常在不同领域的图像中具有相似的外观,而物品(即对象实例)则具有更大的差异,从而提高了对齐的质量。在两个无监督域自适应任务中,我们的方法展示了新的准确度最高的分割结果,并且最小化源和目标域之间的最相似的杂物和实例特征有助于缓解无法稳定地减小分布差异的问题。
Mar, 2020
本文旨在通过采用对比优化目标中的预定中级先验,引入了一个两步框架来学习像素嵌入,从而解决了计算机视觉中的无监督语义表示学习问题,并证明此方法优于现有方法。
Feb, 2021
该研究提出了一个新的大规模无监督语义分割的问题(LUSS),并创建了一个基准数据集来帮助研究。该基准数据集名为ImageNet-S,包含120万个训练图像和50K高质量的语义分割注释进行评估。此外,研究人员还提出了一种简单而有效的方法,可用于大规模无监督语义分割,并且公布了代码和基准数据集。
Jun, 2021
该篇论文提出了首个自上而下的无监督语义分割框架,利用自监督学习方式从大规模视觉数据中获得高级别结构化语义概念信息,使用此信息作为先验,利用计算出的类激活图(CAM)将发现的高级别语义类别映射到低级别像素特征中,最后用获得的CAM作为伪标签训练分割模块并生成最终的语义分割,并在多个语义分割基准上进行实验,证明其优于当前所有最先进的自下而上方法。
Dec, 2021
本文是关于无监督领域适应在语义分割中应用的综述,概括了包括多领域学习、域泛化、测试时适应、无源领域适应在内的最新趋势,并介绍了语义分割的最重要的方法、广泛使用的数据集和基准。
Dec, 2021
本文提出了一种基于图像文本交互的语义分割模型ViL-Seg,通过无需密集标注的方式,利用网络上自然存在的图像和文本数据,学习到能够直接分割任意开放世界类别对象的能力,实验结果在三个基准数据集上优于需要数据标注的零样本分割方法。
Jul, 2022
通过挖掘隐藏正样本学习丰富的语义关系和确保局部语义一致性,我们引入了对比学习来解决任务特定训练指导和局部语义一致性缺乏考虑的问题,并引入了一个渐进的策略来逐步提高导致模型捕获任务特定的语义特征,在 COCO-stuff、Cityscapes 和 Potsdam-3 数据集上实现了最新的 SOTA 结果。
Mar, 2023
本文研究使用自监督预训练策略和Vision Transformer架构的DINO自蒸馏技术,以无监督聚类和语义对应的方式进行通用特征提取;并介绍了基于DINO预训练的Vision Transformer的特征相应的无监督语义分割的STEGO方法,并探讨了STEGO方法的工作机制和训练策略,最终得出STEGO构架可被解释为保留语义的降维技术,是当前技术应用于安全关键型应用的一种方法。
Apr, 2023
使用深度信息和无监督学习方法改进语义分割,通过对特征和深度地图之间的关联进行空间相关性学习以提高性能,并在多个基准数据集上展示了显著的改进。
Sep, 2023
本研究解决了半监督语义分割中对过时ResNet编码器的依赖,提出将基线从ResNet编码器切换到更强大的ViT编码器,以提高分割性能。研究表明,更新编码器(即使使用更少的参数)能带来显著的性能提升,同时推出的UniMatch V2在训练成本上减轻并提供更好的结果,呼吁关注更具挑战性的基准数据集。
Oct, 2024