TL;DR在源-无源领域自适应(DA)场景下,本文提出了一种混合原始和对应的泛化样本的解决方案,用于提高领域的转移能力和保护隐私,在现有的无源 DA 方法上实现提高识别和转移的平衡,并在分类和语义分割任务上实现了最先进的性能,在单源和多源场景下均给出实验验证。
Abstract
Conventional domain adaptation (DA) techniques aim to improve domain transferability by learning domain-invariant representations; while concurrently preserving the task-discriminability knowledge gathered from t
本文探讨了一种实际的领域自适应任务,称为无源域自适应(SFUDA),在此任务中,源预训练模型在没有访问源数据的情况下适应于目标域。我们介绍了一种新的SFUDA范例Divide and Contrast(DaC),使用自适应对比学习框架,通过预测的置信度将目标数据分为类似源域和特定于目标域的样本,并针对每个组别进行调整目标,以在全局和局部层面上提高性能