域的交集和差集
通过将图像表示分为两个子空间:一个是每个领域的私有特征,一个是跨领域共享的特征,我们开发的一种新型架构不仅可以让模型在源领域中执行任务,还可以用于重构来自两个领域的图像。该架构不仅在一系列无监督领域适应场景中优于现有技术水平,还能输出私有和共享表示的可视化结果,从而能够解释领域适应过程。
Aug, 2016
本文提出一种新的无监督领域自适应方法,称为联合几何和统计对齐(JGSA),可以通过统计和几何学方法同时减少源域和目标域之间的偏差。通过两个耦合投影,将源域和目标域数据投影到一维子空间中,同时减少几何偏移和分布偏移,并且目标函数可以高效地封闭求解。大量实验证明,所提出的方法在合成数据集和三个不同的实际交叉领域视觉识别任务上显著优于若干现有领域适应方法。
May, 2017
本文提出一种基于深度可分离卷积的多领域学习体系结构,以捕获不同视觉领域之间的通用结构,并介绍一个门控机制,促进不同领域之间的软共享。在 Visual Decathlon 挑战赛上,我们的方法可以取得最高分数,比现有方法所需的参数数量少50%。
Feb, 2019
本文提出了一种基于结构内容的无监督领域自适应语义分割方法,通过Domain Invariant Structure Extraction (DISE)框架实现跨领域图像转换和标签转移,大量实验证明该方法在无标注数据情况下具有更高的分割性能。
Mar, 2019
本文研究了从一个只有单个样本的$A$域到一个有更多丰富的训练样本$B$域的映射问题,提出了一种使用一个编码器和一个解码器进行双向映射的方法,自动编码器被训练用于匹配$B$域的潜空间和单个样本域,并成功地实现了MNIST图像转化为SVHN图像和SVHN图像转化为MNIST图像的映射,在单个样本域和多样本域之间的映射优于现有解决方案。
Sep, 2019
探讨了面向跨域视觉搜索的开放式设定,在公共语义空间中搜索实现在任何领域中进行搜索以及在多个领域之间进行搜索,向各个可用视觉领域的每一个领域的映射以通过分类样本进行搜索的方法,能够提供与现有半封闭设定相媲美的结果。
Nov, 2019
本研究提出了一种基于 Domain2Vec 模型进行视觉领域向量化表示的方法,并创建了两个大规模跨域基准测试集 TinyDA 和 DomainBank,实验表明该方法可以预测不同域之间的相似性,并优于现有领先的多源领域自适应方法。
Jul, 2020
本文提出了一种新的无监督领域泛化方法,通过利用自监督学习的 Bridge Across Domains 辅助桥接,从多个训练领域学习语义保留的图像到图像映射,使得各个领域能够在语义上对齐,包括在多领域数据集上无监督泛化到看不见的领域和类别等多个任务方面都取得了显著进展。
Dec, 2021
在跨领域检索中,我们提出了一种简单的解决方案,通过图像之间的保留类别的翻译,在不共享训练数据的情况下生成合成数据,从而提高跨领域检索模型的准确性。
Dec, 2023
传统的跨领域任务依赖于通过源领域数据训练模型;随着视觉语言模型 (VLMs) 最近的进展,跨领域任务转变为直接将预先训练的源模型与具有先验领域知识的任意目标领域进行适应,我们将其命名为自适应领域泛化 (ADG) 任务;然而,当前的跨领域数据集存在许多限制,我们为此建立了一个新的 DomainVerse 数据集,为 ADG 提供了层次化的领域转换定义和约 39 万细粒度真实领域的图像,然后通过构建的 DomainVerse 和 VLMs,我们提出了两种称为 Domain CLIP 和 Domain++ CLIP 的免调优自适应领域泛化方法;广泛而全面的实验证明了数据集的重要性及所提出方法的有效性。
Mar, 2024