May, 2021

基于 Transformer 的无源域自适应

TL;DR本研究提出了一种基于 Transformer 的通用转换框架 TransDA,通过将 Transformer 作为注意力机制注入卷积网络中并针对目标伪标签进行自监督知识蒸馏方法,将模型的注意力集中于目标域的对象区域,提高了模型的泛化能力,并在三个领域自适应任务中获得了最先进的结果。