基于提示学习的领域适应
本文提出了一种新的深度学习架构,通过自动发现视觉数据中的潜在域并利用这些信息来学习强健的目标分类器来解决不带标签数据的目标域学习问题,在公共基准测试中表现优于现有的方法。
Mar, 2021
本文针对无监督域适应问题,提出了一种基于对比度预训练的分类器学习方法,该方法可以学习到跨领域的分类特征而无需在领域间建立不变特征映射,并在基准视觉数据集上获得了验证。
Apr, 2022
深度学习在许多领域都展现出其超凡表现,但仅仅依靠大量标记数据来训练模型并不能保证其在面临目标域的分布变化时仍有出色的表现,无监督域自适应通过利用源领域标记数据和目标领域未标记数据来解决该问题,并已在自然图像处理、自然语言处理等领域取得了许多令人期待的结果,该文对该领域的方法和应用进行了系统比较,并强调了当前方法的不足及未来研究方向。
Aug, 2022
使用AD-CLIP解决图像领域适应问题,通过在prompt空间中提取图像风格和内容信息,采用标准的有监督对比学习和最小熵策略来对齐源领域和目标领域,同时提出跨领域风格映射网络来生成领域无关的标记,实验证明了AD-CLIP的有效性。
Aug, 2023
在本文中,我们首先实验性地证明了无监督训练的视觉语言模型可以显著减少源域和目标域之间的分布差异,从而改善无监督域自适应的性能。然而,直接在下游无监督域自适应任务中部署这些模型的一个重要挑战是及时的工程技术,需要对源域和目标域的领域知识进行对齐,因为无监督域自适应的性能受到良好的领域不变表示的严重影响。我们进一步提出了一种基于提示的分布对齐方法(PDA),将领域知识融入到提示学习中。具体而言,PDA采用了两支分支的提示调试范例,即基础分支和对齐分支。基础分支专注于将与类相关的表示集成到提示中,确保在不同类别之间进行区分。为了进一步减小领域差异,我们为源域和目标域构建特征库,并提出了图像引导特征调试(IFT)来使输入关注特征库,从而有效地将自我增强和跨域特征集成到模型中。通过这种方式,这两个分支可以相互促进,增强VLM在无监督域自适应中的适应性。我们在三个基准测试上进行了大量实验,证明了我们提出的PDA方法达到了最先进的性能。
Dec, 2023
通过在无标签数据上进行句子掩码模型训练(MLM)和源标记数据上进行监督指导训练,采用自监督学习和提示模型术语分类方法,我们提出了一种叫做困难易化领域适应(FEUDA)的方法,通过训练一个自回归语言模型,从源和目标领域的标签和无标签示例中,来学习领域不变表征,以提高目标领域的分类性能。
Jan, 2024
利用大规模预训练视觉-语言模型的知识进行领域不可知的相互提示,通过互相对齐视觉和文本嵌入来利用领域不变的语义,并通过语义一致性损失和实例差异对齐损失进行规则化,实验证明 Domain-Agnostic Mutual Prompting(DAMP)相较于现有方法在三个无监督领域自适应基准上具有优势。
Mar, 2024
在无监督领域自适应中,通过基于提示学习的方法,使用大规模预训练的视觉-语言模型来学习领域不变和领域特定的特征,并将领域无关的约束转化为优化问题,通过梯度对齐和梯度范数惩罚来实现不同领域的一致性,从而在单源和多源无监督领域自适应任务中取得了优异的实验结果。
Jun, 2024
一种新的高效元提示学习框架用于少样本无监督领域适应,通过设计领域共享的提示学习向量和任务共享的提示学习网络,实现了领域间的对齐和快速任务适应,并通过元学习得到良好的模型参数初始化,在基准数据集上展现出了有希望的性能提升和更稳定的表现。
Jul, 2024
本文解决了无监督领域适应 (UDA) 中的两个关键挑战,尤其是探索视觉-语言预训练 (VLP) 模型的潜力。提出了一种新方法——跨模态知识蒸馏 (CMKD),利用VLP模型作为教师模型来指导目标领域的学习,从而实现了业界领先的性能。此外,提出的残差稀疏训练 (RST) 技术通过最小调整VLP模型参数来降低存储开销与模型部署的复杂性,显著提高了效率。
Aug, 2024