大规模无监督语义分割
本文提出了一种新颖的深度架构用于纯无监督图像分割,通过自编码器将两个全卷积网络进行串联,并在训练期间联合最小化自编码器的重构误差和编码器产生的标准化割。结合适当的后处理,包括条件随机场平滑和分层分割,该算法在基准伯克利分割数据集上取得了出色的结果,优于许多竞争方法。
Nov, 2017
本文旨在通过采用对比优化目标中的预定中级先验,引入了一个两步框架来学习像素嵌入,从而解决了计算机视觉中的无监督语义表示学习问题,并证明此方法优于现有方法。
Feb, 2021
该篇论文提出了首个自上而下的无监督语义分割框架,利用自监督学习方式从大规模视觉数据中获得高级别结构化语义概念信息,使用此信息作为先验,利用计算出的类激活图(CAM)将发现的高级别语义类别映射到低级别像素特征中,最后用获得的CAM作为伪标签训练分割模块并生成最终的语义分割,并在多个语义分割基准上进行实验,证明其优于当前所有最先进的自下而上方法。
Dec, 2021
本文是关于无监督领域适应在语义分割中应用的综述,概括了包括多领域学习、域泛化、测试时适应、无源领域适应在内的最新趋势,并介绍了语义分割的最重要的方法、广泛使用的数据集和基准。
Dec, 2021
本研究提出了一种名为语义关注网络(Semantic Attention Network,SAN)的模型,在无监督的图像语义分割(UISS)任务中采用“语义关注(Semantic Attention)”模块生成像素级和语义级特征,该模型具有较好的特征一致性和特征匹配性能,在多个数据集上超过已有方法的分割效果。
Nov, 2022
使用深度信息和无监督学习方法改进语义分割,通过对特征和深度地图之间的关联进行空间相关性学习以提高性能,并在多个基准数据集上展示了显著的改进。
Sep, 2023
基于图像级标签的弱监督语义分割是有效的避免昂贵标注的解决方案。本文首先对传统方法进行全面调研,然后研究了在弱监督语义分割中视觉基础模型(如SAM)的适用性和挑战,为该研究领域的未来发展提供了深入的见解。
Oct, 2023
我们提出了一个用于无监督语义分割的轻量级聚类框架,基于自监督视觉变换器的注意特征,通过将这些特征聚类成少量的聚类中心,我们能够将前景和背景的图像补丁分开成不同的组。我们的框架在无监督语义分割方面展示了很大的潜力,并在PASCAL VOC和MS COCO数据集上取得了最新的成果。
Nov, 2023
本文提出了一种数据驱动的方法,将无监督密集语义分割任务作为下游任务来评估自我监督训练方案中引入的语义信息质量,并使用所提出的方法(DatUS^2)生成密集伪标注分割掩膜,评估最新的自我监督训练方案,发现其在图像语义分割任务上取得了显著的性能优势。
Jan, 2024
本研究解决了半监督语义分割中对过时ResNet编码器的依赖,提出将基线从ResNet编码器切换到更强大的ViT编码器,以提高分割性能。研究表明,更新编码器(即使使用更少的参数)能带来显著的性能提升,同时推出的UniMatch V2在训练成本上减轻并提供更好的结果,呼吁关注更具挑战性的基准数据集。
Oct, 2024