ProCST: 基于渐进循环风格迁移的语义分割增强
本文提出一种基于无监督域自适应(UDA)的方法,针对城市场景的语义分割应用领域,将深度神经网络从合成数据源,适应到真实数据源上,通过引入对抗模块和自训练策略实现充分对齐两个数据分布,模块化的架构使得模型适用范围更广,实验结果表明该方法的有效性和稳健性。
Apr, 2020
本文概述了用于语义分割的深度网络无监督域适应的最新进展,并提供了清晰的分类。该文介绍了该问题的各种情况、不同水平上的适应策略、以及基于对抗学习、生成式、分类器差异性分析、自学习、熵最小化、课程学习和多任务学习等方法的文献综述。该文最后通过在自动驾驶情景下对各种方法的性能进行比较。
May, 2020
本文提出一种新颖的无监督归一化层自适应方法(Unsupervised BatchNorm Adaptation, UBNA),该方法通过部分适应归一化层统计来将给定的预训练模型适应到看不见的目标领域,无需使用来自源领域的任何表示(既没有数据也没有网络),并且可以以在线方式或者在使用目标领域中的少量未标记图像的情况下,以几次样本的方式进行。通过评估利用标准的无监督领域适应基准的语义分割,我们展示了这比没有适应和使用仅从目标域中获得的统计数据的基线方法优越,并且与标准的无监督领域适应方法相比,我们报告了性能和使用源领域表示之间的权衡。
Nov, 2020
本研究提出了一种基于内容和风格分离的零风格损失的无监督域自适应方法,通过将合成数据的标注用于真实数据的分割,有效地解决了语义分割中的领域间差异和类别不平衡问题。
Dec, 2020
通过知识迁移和自监督学习,提出了一种基于 source-free 的语义分割域适应框架 SFDA,它可以在只有一个经过良好训练的源模型和一个未标注的目标域数据集的情况下,在语义分割中恢复和保存源域知识。
Mar, 2021
该论文研究了利用少量标记数据来对无监督领域适应(UDA)进行数据中心性思考,并探究了如何优选经典的UDA方法的超参数和使用少量标记数据进行微调的效果。
Jun, 2022
我们提出了一种简单直接的方法来减小不同领域之间的差异,该方法无需进行额外的参数计算,并且可以与基于自训练的无监督领域适应方法无缝集成。通过在潜在特征空间中将目标领域的风格传递给源领域,该模型在决策过程中优先考虑目标领域的风格,在图像级别和浅层特征图级别上解决了该问题,并实现了在目标领域上出色的性能。我们的方法在合成到真实的无监督领域适应任务中取得了显著的性能提升,比如在GTA->Cityscapes数据集上达到了显著的UDA性能,mIoU为76.93%,比先前最先进结果改善了1.03个百分点。
Apr, 2024
提出了DEC,这是一个灵活的多源数据集的UDA框架,通过将语义类别进行分类,并使用仅在合成数据集上训练的集成模型将它们的输出融合,来解决研究中的合成多源数据集的挑战,以获得最终的分割掩模,并可以与现有的UDA方法相结合,在Cityscapes、BDD100K和Mapillary Vistas上实现了最先进的性能。
Jun, 2024