May, 2021

基于Transformer的无源域自适应

TL;DR本研究提出了一种基于Transformer的通用转换框架TransDA,通过将Transformer作为注意力机制注入卷积网络中并针对目标伪标签进行自监督知识蒸馏方法,将模型的注意力集中于目标域的对象区域,提高了模型的泛化能力,并在三个领域自适应任务中获得了最先进的结果。