无监督领域适应学习用于语义分割的内容迁移技术
我们提出了一种简单直接的方法来减小不同领域之间的差异,该方法无需进行额外的参数计算,并且可以与基于自训练的无监督领域适应方法无缝集成。通过在潜在特征空间中将目标领域的风格传递给源领域,该模型在决策过程中优先考虑目标领域的风格,在图像级别和浅层特征图级别上解决了该问题,并实现了在目标领域上出色的性能。我们的方法在合成到真实的无监督领域适应任务中取得了显著的性能提升,比如在 GTA->Cityscapes 数据集上达到了显著的 UDA 性能,mIoU 为 76.93%,比先前最先进结果改善了 1.03 个百分点。
Apr, 2024
本文概述了用于语义分割的深度网络无监督域适应的最新进展,并提供了清晰的分类。该文介绍了该问题的各种情况、不同水平上的适应策略、以及基于对抗学习、生成式、分类器差异性分析、自学习、熵最小化、课程学习和多任务学习等方法的文献综述。该文最后通过在自动驾驶情景下对各种方法的性能进行比较。
May, 2020
该工作提出了一种统一的深度感知无监督域自适应框架,通过在源领域中利用密集深度的多种补充方式,最大限度地利用了这种特权信息来训练 UDA 模型,从而提高了目标领域上训练的语义分割模型的性能,并在不同的具有挑战性的 synthetic-2-real 基准测试上实现了最先进的性能。
Apr, 2019
本文提出一种基于无监督域自适应(UDA)的方法,针对城市场景的语义分割应用领域,将深度神经网络从合成数据源,适应到真实数据源上,通过引入对抗模块和自训练策略实现充分对齐两个数据分布,模块化的架构使得模型适用范围更广,实验结果表明该方法的有效性和稳健性。
Apr, 2020
本研究提出一种在线无监督域自适应算法,通过在共享嵌入空间中最小化源潜在特征与目标特征之间的分布距离,促进两个领域之间的共享领域无关潜在特征空间,从而改善图像的语义分割模型在未注释领域上的泛化性能。为了在自适应过程中减轻对源样本访问的需求,我们通过一个合适的替代分布(如高斯混合模型)来近似源潜在特征分布。我们在已建立的语义分割数据集上评估了我们的方法,并证明它在未注释领域的泛化性能上与最先进的无监督域自适应方法相比具有竞争优势。
Jan, 2024
该论文研究了利用少量标记数据来对无监督领域适应(UDA)进行数据中心性思考,并探究了如何优选经典的 UDA 方法的超参数和使用少量标记数据进行微调的效果。
Jun, 2022
本研究提出了一种基于低级边缘信息的领域自适应方法,通过使用独立边缘流来处理边缘信息,从而在目标领域上产生高质量的语义边界,进而通过边缘一致性损失来对齐目标语义预测与产生的语义边界,并且进一步提出了用于语义对抗学习和自监督学习的两种经验再加权方法,这些方法能够进一步提高该结构的自适应性能。在两个 UDA 基准数据集上的综合实验表明,该结构相比现有技术具有更好的表现。
Sep, 2021
该论文提出了一种新的类别锚点引导的无监督域自适应(UDA)模型,用于语义分割,并通过锚定和伪标签,显式强制执行类别感知的特征对齐来学习共享的判别特征和分类器,其一系列损失函数和训练机制均展现出卓越的性能。
Oct, 2019
本文提出一种基于特征聚类和正交性损失等方法的无监督领域自适应策略,能够在合成到真实场景的情况下有效提高特征空间结构的判别能力并达到最先进的性能。
Nov, 2020