语义分割的自我调节
本文提出了一种用于弱监督下的图像标注的全新框架——AffinityNet。该框架通过训练一个深度神经网络,使其能够预测一对相邻图像坐标之间的语义亲和性,从而通过随机游走来实现语义的传播,以生成图像的分割标签。实验表明,使用我们的方法生成的分割标签训练的DNN,甚至比其它依赖于更强监管的模型表现更为优秀。
Mar, 2018
本研究介绍了一种半监督框架,通过一个辅助模型和一个自我纠正模块,在只有一小部分完全有监督图像的基础上,使用具有目标边界框标签的图像和只有目标边界框标签的图像集(称为弱集),训练出高质量的语义分割模型,这种方法比传统大量完全有监督数据模型要求的标注工作量减少 ~7 倍。
Nov, 2018
本文提出了一种半监督学习的方法,即自我训练范式,通过用标注数据训练教师模型并在大量未标注数据上生成伪标签,以较少的监督实现像素级准确模型,并在Cityscapes,CamVid和KITTI数据集上取得了最优表现,同时,在具有挑战性的跨域泛化任务上表现更佳,最后,为了减轻大量伪标签带来的计算负担,提出了一种快速训练计划来加速分割模型的训练。
Apr, 2020
本文探讨了使用弱监督方法进行语义分割的可行性,提出了一种基于单阶段自我监督学习的网络模型,使用图像级注释训练语义掩码取得了与复杂流水线相竞争的结果,优于早期的单阶段方法。
May, 2020
提出了一种基于自监督学习和伪标签的自训练方法,用于减轻深度神经网络在逐步学习新类任务时出现的灾难性遗忘问题,该方法不仅考虑了历史任务的知识,还利用了额外的数据提高了语义分割的性能。
Dec, 2020
提出了一种半监督语义分割的框架,采用自监督单目深度估计和利用场景几何形状强数据扩增的方式,结合深度特征差异和难度级别,通过学生-教师框架选择最有用的样本进行语义分割的注释,实现了在Cityscapes数据集上半监督语义分割的最好结果。
Dec, 2020
本研究致力于在无监督域自适应的背景下,解决深度神经网络在语义分割任务中出现的领域转移问题,提出了一种新的低层适应策略和有效的数据增强方法,可以有效地提高分类边界上的表现。
Oct, 2021
本文介绍了以往自我监督的学习方式大多聚焦于图像级的表示学习,不能为无监督图像分割等需要空间多样的表示的任务带来改进,通过自我监督学习物体部件提出了新的解决途径,并结合目前趋势的Vision Transformer,利用稠密聚类任务进行空间标记的微调,取得了在语义分割基准测试上超过17%-3%的最先进结果,且在完全无监督分割方面也具有重大潜力。
Apr, 2022
通过使用类ResNet的主干和小型多尺度头部的简单编码器-解码器架构,扩大有效接受域, 实现了与HRNet等复杂语义分割架构相当甚至更好的性能,提供了简单有效的基准模型供从业者开发高效的语义分割模型。
Jun, 2022
通过冻结自监督视觉变换器(SSVT)主干并训练轻量级分割头,我们展示了一种成本效益的语义分割方法。通过利用不完美的标签,我们的方法提高了对标签缺陷的鲁棒性,对于各种注释类型,包括涂鸦、点层和图像层标签,在现有方法上展现了显著的性能改进。这项研究突出了自监督视觉变换器在处理不完美标签方面的有效性,为语义分割提供了实用且高效的解决方案,同时降低了注释成本。通过大量实验,我们确认我们的方法在所有类型的不完美标签上优于基准模型,特别在基于零样本视觉语言模型的标签下,相对于基准模型展现了11.5%的性能提升。
Jan, 2024