深层鸡尾酒网络:多源无监督领域自适应及类别偏移
该论文提出了一种新的多源蒸馏领域自适应(MDDA)网络,该网络考虑了多个源和目标之间的不同距离以及源样本与目标样本的不同相似性,通过预先训练源分类器、将目标映射到每个源的特征空间、选择最近的源样本进行微调和使用不同的域权重对不同预测进行聚合等四个阶段实现。实验表明,该方法明显优于现有的方法。
Nov, 2019
本文提出了一种基于全局和本地聚类的学习技术(GLC),以实现知道领域和类别转换下已知数据样本的识别,并仅使用标准预训练源模型的知识从而拒绝那些 “未知” 的数据样本。我们检验了我们的方法在包括部分集、开放集和开放部分集 DA 等不同类别转化情境下的多个基准测试中相对于 UMAD 的优越性,值得注意的是,我们的方法在最具挑战性的开放部分集 DA 情境下比 UMAD 高出 14.8%。
Mar, 2023
本文提出了一种新的无监督多目标域自适应方法,通过多教师知识蒸馏来训练 CNN,使其可以在多个目标领域上广义化。该方法通过逐步蒸馏目标域知识到一个共同的学生无直接学习域适应特征,同时保留每个目标(教师)的特异性以适应学生,通过在多项具有挑战性的 UDA 基准测试上的实证结果表明,我们提出的模型可以在多个目标域上提供较高水平的准确性。
Jul, 2020
本文提出了一种针对具有一个源域和多个目标域的无监督域适应场景 (1SmT) 的模型参数自适应转移的无监督域适应框架 (PA-1SmT),该框架通过学习一个共同的模型参数词典进行知识转移,并在三个领域适应基准数据集上实验验证了其优越性。
Sep, 2018
该论文提出了一种名为 Deep Transfer Network 的领域适应框架,其中高度灵活的深度神经网络用于实现分布匹配过程,在分类准确性和执行时间等方面取得了显著的改进。
Mar, 2015
本研究提出了一种新方法,通过域自适应和无监督知识蒸馏,联合优化卷积神经网络,实现压缩模型并适应于特定目标领域,结果表明该方法在实现较高准确度的同时,比现有的压缩和域自适应技术具有相当或更低的时间复杂度,在实际应用中有较好的应用前景。
May, 2020
本文提出了一种使用注意力对齐和后验标签分布估计的卷积神经网络自适应无监督域适应的方法,在 Office-31 数据集上超过其他最先进的方法 2.6%。
Jan, 2018
该文提出了一种名为 UMAD 的通用模型适应框架,能够在不使用源数据或了解域之间类别偏移的先验知识的情况下处理 open-set 和 open-partial-set 的两种 UDA 场景,并通过实验证明其在数据隐私敏感型应用中具有可比较甚至更优的性能。
Dec, 2021
本文提出了一种基于 Transformer 的无监督领域自适应方法 CDTrans,采用双向中心感知标签算法生成准确的伪标签,采用权值共享的三支架 Transformer 框架对源 / 目标特征学习和源目标领域对齐进行自关注和交叉关注,实现了同时学习区分性领域 - 特定和领域不变表示的显式设计,实验证明该方法在公共数据集上的表现优于现有方法。
Sep, 2021