将分类语义集成到无监督域翻译中
本文提出一种基于特征聚类和正交性损失等方法的无监督领域自适应策略,能够在合成到真实场景的情况下有效提高特征空间结构的判别能力并达到最先进的性能。
Nov, 2020
本研究提出了一种新的无监督域自适应方法,通过粗、细两个阶段中的影像级对齐和类别级别特征分布规则化来统一解决影像级别和类别级别导致的域差异问题,其中概念中的 “类别级别特征分布” 指的是使用三元组损失限制源域的类别中心和自监督一致性规则化目标域,实验证明本研究所提出的方法提高了分割模型的泛化能力并显著优于之前的方法。
Mar, 2021
无监督领域转换 (UDT) 通过概率分布匹配转化一个领域的样本到另一个领域,以找到保持高层语义意义的转换函数。然而,潜在的问题是存在多个转换函数,导致无法准确识别并产生错误的转换结果。本研究对这一识别问题进行了深入探讨,并提出了一种消除多个转换函数的理论。通过实验证明,在合理的 UDT 设置下,使用基于分布匹配的辅助变量诱导子集的方法可以更好地确立好的翻译识别。
Jan, 2024
该论文提出了一种新的类别锚点引导的无监督域自适应(UDA)模型,用于语义分割,并通过锚定和伪标签,显式强制执行类别感知的特征对齐来学习共享的判别特征和分类器,其一系列损失函数和训练机制均展现出卓越的性能。
Oct, 2019
我们提出了一种名为 “可转移概念原型学习(TCPL)” 的固有可解释方法,该方法能够同时解释和改进无监督领域适应中的知识转移和决策过程,并通过学习可转移原型和设计自预测一致的伪标签策略来减小领域差距。综合实验表明,该方法不仅能提供有效而直观的解释,还能超越先前的最新技术。
Oct, 2023
我们提出了一种简单直接的方法来减小不同领域之间的差异,该方法无需进行额外的参数计算,并且可以与基于自训练的无监督领域适应方法无缝集成。通过在潜在特征空间中将目标领域的风格传递给源领域,该模型在决策过程中优先考虑目标领域的风格,在图像级别和浅层特征图级别上解决了该问题,并实现了在目标领域上出色的性能。我们的方法在合成到真实的无监督领域适应任务中取得了显著的性能提升,比如在 GTA->Cityscapes 数据集上达到了显著的 UDA 性能,mIoU 为 76.93%,比先前最先进结果改善了 1.03 个百分点。
Apr, 2024
本研究提出一种在线无监督域自适应算法,通过在共享嵌入空间中最小化源潜在特征与目标特征之间的分布距离,促进两个领域之间的共享领域无关潜在特征空间,从而改善图像的语义分割模型在未注释领域上的泛化性能。为了在自适应过程中减轻对源样本访问的需求,我们通过一个合适的替代分布(如高斯混合模型)来近似源潜在特征分布。我们在已建立的语义分割数据集上评估了我们的方法,并证明它在未注释领域的泛化性能上与最先进的无监督域自适应方法相比具有竞争优势。
Jan, 2024
提出一种针对图像数据的新型两阶段框架,通过逐步训练多尺度神经网络从源域到目标域执行图像翻译,将生成的新数据作为任何标准 UDA 方法的输入,以进一步降低域差距,达到提高域自适应技术的效果。
Apr, 2022
本文提出了一种新的针对少样本无监督域自适应(FS-UDA)的任务特定语义特征学习方法(TSECS),以提高图像分类的效果,包括跨域自我训练策略和最小化源和目标域之间高级特征分布的 KL 散度。在 DomainNet 数据集上的实验结果表明,该方法在 FS-UDA 领域取得了明显的性能优势(即 10%)。
Jan, 2023