Sep, 2020

基于 Transformer 的多源域自适应

TL;DR研究了大型预训练转换模型在无监督多源域自适应中的效果,发现领域对抗性训练对其有影响,但对表现影响不大,同时混合专家方法则显著提高了表现并比较了几种混合函数,包括一种基于注意力的新混合方法。