我们提出了一种简单直接的方法来减小不同领域之间的差异,该方法无需进行额外的参数计算,并且可以与基于自训练的无监督领域适应方法无缝集成。通过在潜在特征空间中将目标领域的风格传递给源领域,该模型在决策过程中优先考虑目标领域的风格,在图像级别和浅层特征图级别上解决了该问题,并实现了在目标领域上出色的性能。我们的方法在合成到真实的无监督领域适应任务中取得了显著的性能提升,比如在 GTA->Cityscapes 数据集上达到了显著的 UDA 性能,mIoU 为 76.93%,比先前最先进结果改善了 1.03 个百分点。
Apr, 2024
本文提出了一种基于伪领域生成的领域增强领域自适应方法(DADA),通过生成与目标域差异更小的伪领域,减小跨域偏差,进而增强知识转移过程并将标签方法应用于 DADA 模型中,结果表明该模型优秀。
Feb, 2022
通过知识迁移和自监督学习,提出了一种基于 source-free 的语义分割域适应框架 SFDA,它可以在只有一个经过良好训练的源模型和一个未标注的目标域数据集的情况下,在语义分割中恢复和保存源域知识。
Mar, 2021
本文提出了一种基于伪源域的方法,通过生成和扩充伪源域,引入四种新的基于伪标签的策略 loss 进行分布对齐,并在伪源域和剩余目标域之间引入一个域对抗损失,以减少分布漂移,从而有效地解决了无监督域自适应的问题。
Sep, 2021
本研究通过在源域和目标域约束特征,提出一种简单高效的无监督域自适应方法,即使用无领域先验 (DAP) 正则化交叉域表示学习,这种方法在将综合数据转移到真实数据的标准评估协议中,表现出优秀的语义分割准确性,对于提高模型的分类表现具有指导意义。
Apr, 2022
本研究提出一种在线无监督域自适应算法,通过在共享嵌入空间中最小化源潜在特征与目标特征之间的分布距离,促进两个领域之间的共享领域无关潜在特征空间,从而改善图像的语义分割模型在未注释领域上的泛化性能。为了在自适应过程中减轻对源样本访问的需求,我们通过一个合适的替代分布(如高斯混合模型)来近似源潜在特征分布。我们在已建立的语义分割数据集上评估了我们的方法,并证明它在未注释领域的泛化性能上与最先进的无监督域自适应方法相比具有竞争优势。
Jan, 2024
本文提出一种基于无监督域自适应(UDA)的方法,针对城市场景的语义分割应用领域,将深度神经网络从合成数据源,适应到真实数据源上,通过引入对抗模块和自训练策略实现充分对齐两个数据分布,模块化的架构使得模型适用范围更广,实验结果表明该方法的有效性和稳健性。
Apr, 2020
该论文提出了一种新的类别锚点引导的无监督域自适应(UDA)模型,用于语义分割,并通过锚定和伪标签,显式强制执行类别感知的特征对齐来学习共享的判别特征和分类器,其一系列损失函数和训练机制均展现出卓越的性能。
Oct, 2019
本研究提出了一种自适应框架以应对面部反欺骗技术面临的跨域泛化问题,使用基于元学习的领域自适应算法,利用未标记的测试域数据来更新适配器以进一步提高性能。在四个公共数据集上的实验证明了该方法的有效性。
Feb, 2021
比较无监督领域自适应技术在两个文本分类任务(假新闻检测和偏激新闻检测)中的效果,并探讨了数据增强、聚类和主题建模与无监督领域自适应技术相结合对性能的提升。
Aug, 2023