无监督模型适应连续语义分割
本文提出了一种基于迭代自训练的无监督域自适应框架,在自训练的基础上提出了一种新的类平衡自训练框架,并引入了空间先验来改善生成的标签。综合实验表明,所提出的方法在多个主要 UDA 设置下均实现了最先进的语义分割性能。
Oct, 2018
本文概述了用于语义分割的深度网络无监督域适应的最新进展,并提供了清晰的分类。该文介绍了该问题的各种情况、不同水平上的适应策略、以及基于对抗学习、生成式、分类器差异性分析、自学习、熵最小化、课程学习和多任务学习等方法的文献综述。该文最后通过在自动驾驶情景下对各种方法的性能进行比较。
May, 2020
本文提出一种新颖的无监督归一化层自适应方法(Unsupervised BatchNorm Adaptation, UBNA),该方法通过部分适应归一化层统计来将给定的预训练模型适应到看不见的目标领域,无需使用来自源领域的任何表示(既没有数据也没有网络),并且可以以在线方式或者在使用目标领域中的少量未标记图像的情况下,以几次样本的方式进行。通过评估利用标准的无监督领域适应基准的语义分割,我们展示了这比没有适应和使用仅从目标域中获得的统计数据的基线方法优越,并且与标准的无监督领域适应方法相比,我们报告了性能和使用源领域表示之间的权衡。
Nov, 2020
本研究提出了一种基于内容和风格分离的零风格损失的无监督域自适应方法,通过将合成数据的标注用于真实数据的分割,有效地解决了语义分割中的领域间差异和类别不平衡问题。
Dec, 2020
通过知识迁移和自监督学习,提出了一种基于 source-free 的语义分割域适应框架 SFDA,它可以在只有一个经过良好训练的源模型和一个未标注的目标域数据集的情况下,在语义分割中恢复和保存源域知识。
Mar, 2021
本文提出了一种利用多头框架和自学习提取可靠目标伪标签以实现无源自适应的方法,并引入了一个新的条件先验强制自编码器以改善伪标签质量。实验证明该方法在标准测试基准上显示出较高性能,并显示出与在线适应的兼容性。
Aug, 2021
提出了一种新的问题表述和相应的评估框架来推进无监督领域自适应语义图像分割的研究;介绍了一种在线学习的协议,旨在解决现有协议对于模型的领域局限性和离线学习性质导致算法难以在不断变化的环境中连续自适应的问题,并伴随着多种基准算法和广泛的行为分析。
Mar, 2022
该论文研究了利用少量标记数据来对无监督领域适应(UDA)进行数据中心性思考,并探究了如何优选经典的UDA方法的超参数和使用少量标记数据进行微调的效果。
Jun, 2022
本研究提出一种在线无监督域自适应算法,通过在共享嵌入空间中最小化源潜在特征与目标特征之间的分布距离,促进两个领域之间的共享领域无关潜在特征空间,从而改善图像的语义分割模型在未注释领域上的泛化性能。为了在自适应过程中减轻对源样本访问的需求,我们通过一个合适的替代分布(如高斯混合模型)来近似源潜在特征分布。我们在已建立的语义分割数据集上评估了我们的方法,并证明它在未注释领域的泛化性能上与最先进的无监督域自适应方法相比具有竞争优势。
Jan, 2024
通过无需外部数据的多目标无监督领域适应策略,实现语义分割模型在新的未知目标域上的适应,无需使用来自多个目标域的标注和未标注数据,通过自我蒸馏和对抗学习的简单方法在多个合成-真实和真实-真实的适应设置中显著优于现有最先进解决方案。
May, 2024