通过提示梯度对齐增强领域自适应
本文提出了一种新颖的无监督领域自适应学习范式——通过提示学习的领域自适应(DAPL),通过嵌入域信息和利用预训练的视觉-语言模型进行分类,此方法在多个领域的基准测试数据上表现优异,并且训练效率高、易于实现。
Feb, 2022
本文针对无监督域适应问题,提出了一种基于对比度预训练的分类器学习方法,该方法可以学习到跨领域的分类特征而无需在领域间建立不变特征映射,并在基准视觉数据集上获得了验证。
Apr, 2022
提出了一种基于Domain-Oriented Transformer的无监督域自适应方法,通过在不同的领域中聚焦于不同的特征空间进行特征对齐,并为每个领域创建一个特定的面向域的分类器,该方法在多个基准测试中取得了最先进的效果。
Aug, 2022
深度学习在许多领域都展现出其超凡表现,但仅仅依靠大量标记数据来训练模型并不能保证其在面临目标域的分布变化时仍有出色的表现,无监督域自适应通过利用源领域标记数据和目标领域未标记数据来解决该问题,并已在自然图像处理、自然语言处理等领域取得了许多令人期待的结果,该文对该领域的方法和应用进行了系统比较,并强调了当前方法的不足及未来研究方向。
Aug, 2022
在本文中,我们首先实验性地证明了无监督训练的视觉语言模型可以显著减少源域和目标域之间的分布差异,从而改善无监督域自适应的性能。然而,直接在下游无监督域自适应任务中部署这些模型的一个重要挑战是及时的工程技术,需要对源域和目标域的领域知识进行对齐,因为无监督域自适应的性能受到良好的领域不变表示的严重影响。我们进一步提出了一种基于提示的分布对齐方法(PDA),将领域知识融入到提示学习中。具体而言,PDA采用了两支分支的提示调试范例,即基础分支和对齐分支。基础分支专注于将与类相关的表示集成到提示中,确保在不同类别之间进行区分。为了进一步减小领域差异,我们为源域和目标域构建特征库,并提出了图像引导特征调试(IFT)来使输入关注特征库,从而有效地将自我增强和跨域特征集成到模型中。通过这种方式,这两个分支可以相互促进,增强VLM在无监督域自适应中的适应性。我们在三个基准测试上进行了大量实验,证明了我们提出的PDA方法达到了最先进的性能。
Dec, 2023
通过在无标签数据上进行句子掩码模型训练(MLM)和源标记数据上进行监督指导训练,采用自监督学习和提示模型术语分类方法,我们提出了一种叫做困难易化领域适应(FEUDA)的方法,通过训练一个自回归语言模型,从源和目标领域的标签和无标签示例中,来学习领域不变表征,以提高目标领域的分类性能。
Jan, 2024
利用大规模预训练视觉-语言模型的知识进行领域不可知的相互提示,通过互相对齐视觉和文本嵌入来利用领域不变的语义,并通过语义一致性损失和实例差异对齐损失进行规则化,实验证明 Domain-Agnostic Mutual Prompting(DAMP)相较于现有方法在三个无监督领域自适应基准上具有优势。
Mar, 2024
一种新的高效元提示学习框架用于少样本无监督领域适应,通过设计领域共享的提示学习向量和任务共享的提示学习网络,实现了领域间的对齐和快速任务适应,并通过元学习得到良好的模型参数初始化,在基准数据集上展现出了有希望的性能提升和更稳定的表现。
Jul, 2024
本研究解决了无监督领域适应中领域对齐与分类任务之间的冲突问题。提出的新方法“梯度协调”及其改进版本GH++,通过调整任务间的梯度角度来减少冲突,同时保持优化方向的稳定性。实验结果表明,这些方法能够显著提升现有UDA模型的性能。
Aug, 2024
本文解决了无监督领域适应 (UDA) 中的两个关键挑战,尤其是探索视觉-语言预训练 (VLP) 模型的潜力。提出了一种新方法——跨模态知识蒸馏 (CMKD),利用VLP模型作为教师模型来指导目标领域的学习,从而实现了业界领先的性能。此外,提出的残差稀疏训练 (RST) 技术通过最小调整VLP模型参数来降低存储开销与模型部署的复杂性,显著提高了效率。
Aug, 2024