无监督领域适应的对比适应网络
本文提出了一种将源域和目标域相结合的联合优化框架,并引入了一种称为JCL的新方法,它利用对比损失来最大化特征和标签之间的互信息,以最小化联合误差,从而有效提高了特征传递性和分类效果。
Jun, 2020
该论文提出了一种在无监督领域适应的情况下,采用自我监督学习的对比方法以减少培训和测试集之间的领域差异,实现了简单而有效的领域对齐框架CDCL,并使用伪标签进行评估, 这种方法可以应用于无需数据源的情况并在图像分类方面取得了最先进的性能。
Jun, 2021
本研究提出了一种无监督模型自适应的历史对比学习技术,通过历史模型的假设来弥补源数据中的缺失,从而实现将源训练模型适应到目标分布的无监督域适应。实验结果表明,该方法在各种视觉任务和设置下一致优于现有技术。
Oct, 2021
本文提出了一种自我监督学习方法,即可转移对比学习(TCL),其将SSL和所需的跨域可转移性紧密地联系起来,并通过特定的内存库和伪标签战略对源和目标之间的跨域内部类域差异进行惩罚
Dec, 2021
本文针对无监督域适应问题,提出了一种基于对比度预训练的分类器学习方法,该方法可以学习到跨领域的分类特征而无需在领域间建立不变特征映射,并在基准视觉数据集上获得了验证。
Apr, 2022
本文介绍了一种自主学习方法的无监督域自适应技术,即Domain Confused Contrastive Learning(DCCL),旨在通过域拼图来构建源域和目标域之间的桥梁,并在适应后保留有区分性的表示。此外,作者还探讨了在进行其他数据增强时,对比学习是否有助于UDA。实验表明,DCCL的表现显著优于基线。
Jul, 2022
深度学习在许多领域都展现出其超凡表现,但仅仅依靠大量标记数据来训练模型并不能保证其在面临目标域的分布变化时仍有出色的表现,无监督域自适应通过利用源领域标记数据和目标领域未标记数据来解决该问题,并已在自然图像处理、自然语言处理等领域取得了许多令人期待的结果,该文对该领域的方法和应用进行了系统比较,并强调了当前方法的不足及未来研究方向。
Aug, 2022
本文探讨了一种实际的领域自适应任务,称为无源域自适应(SFUDA),在此任务中,源预训练模型在没有访问源数据的情况下适应于目标域。我们介绍了一种新的SFUDA范例Divide and Contrast(DaC),使用自适应对比学习框架,通过预测的置信度将目标数据分为类似源域和特定于目标域的样本,并针对每个组别进行调整目标,以在全局和局部层面上提高性能
Nov, 2022