基于领域和类别转移的升级模型
深度神经网络在协变量移位和类别偏移下经常表现出次优性能。本文提出了一种源自由的通用领域适应方法,旨在准确分类属于常见类别的 “已知” 数据,并将其与目标私有的 “未知” 数据分隔开。我们提出了一种新颖的全局和局部聚类(GLC)技术,包括自适应的一对多全局聚类算法来区分目标类别,以及一种局部 k-NN 聚类策略来减轻负迁移。为了解决这一问题,我们将 GLC 发展到 GLC ++,集成了一种对比相似性学习策略。我们在多个基准和类别偏移场景中检验了 GLC 和 GLC ++ 的优越性。在最具挑战性的开放部分集场景下,GLC 和 GLC ++ 分别在 VisDA 的 H 分数上比 GATE 提高 16.7%和 18.6%。GLC ++ 在 Office-Home 的开放集场景中提高了 GLC 的新类别聚类准确性 4.3%。此外,引入的对比学习策略不仅改进了 GLC,还显著促进了现有方法。
Mar, 2024
本研究针对数据保护、存储和传输等实际场景中普遍存在的源数据访问限制,提供了一篇系统综述文章,介绍了最近提出的无源自适应方法,着重对白盒和黑盒方法进行分类,并详细讨论了各类方法中的挑战以及适用于无源数据的模型在提高泛化能力方面的流行技术和常用基准数据集。
Dec, 2022
通过知识迁移和自监督学习,提出了一种基于 source-free 的语义分割域适应框架 SFDA,它可以在只有一个经过良好训练的源模型和一个未标注的目标域数据集的情况下,在语义分割中恢复和保存源域知识。
Mar, 2021
该文提出了一种名为 UMAD 的通用模型适应框架,能够在不使用源数据或了解域之间类别偏移的先验知识的情况下处理 open-set 和 open-partial-set 的两种 UDA 场景,并通过实验证明其在数据隐私敏感型应用中具有可比较甚至更优的性能。
Dec, 2021
本文提出了一种广义源自由域自适应(G-SFDA)的新域自适应范例,其中仅在自适应期间访问当前未标记的目标数据,该方法基于局部结构聚类(LSC)和稀疏域注意力(SDA)以保持源信息的同时为不同领域激活不同的特征通道。实验表明,本文所提出的方法的目标表现与现有域自适应(DA)和源自由域自适应(SFDA)方法相当或更好,并在 VisDA 上实现了最先进的性能(85.4%)。
Aug, 2021
本研究提出了一个基于无监督领域自适应的节点分类方法,该方法利用了已经训练好的源模型,而不需要访问源图和其标签,实现了对无标签目标图的分类,实验结果表明该方法在四项跨领域任务中都获得了显著的改进。
Dec, 2021
深度学习在许多领域都展现出其超凡表现,但仅仅依靠大量标记数据来训练模型并不能保证其在面临目标域的分布变化时仍有出色的表现,无监督域自适应通过利用源领域标记数据和目标领域未标记数据来解决该问题,并已在自然图像处理、自然语言处理等领域取得了许多令人期待的结果,该文对该领域的方法和应用进行了系统比较,并强调了当前方法的不足及未来研究方向。
Aug, 2022
提出了一种新的基于超图学习的无源无监督领域自适应方法,通过探索多个样本之间的高阶邻域关系和考虑域偏移效应,实现了对目标样本的分类,并在多个数据集上进行了广泛实验验证。
May, 2024
提出一种新颖的领域自适应扩散(DAD)模块和互学习策略(MLS),通过将源域数据逐渐转化为目标域数据并使分类模型在领域转换过程中学习,成功将领域适应的挑战分解为多个小领域间隙并逐步增强分类模型的能力,从而在三个广泛使用的无监督领域自适应数据集上大幅优于现有最先进方法。
Aug, 2023