BriefGPT.xyz
Ask
alpha
关键词
large pretrained transformer models
搜索结果 - 1
基于 Transformer 的多源域自适应
研究了大型预训练转换模型在无监督多源域自适应中的效果,发现领域对抗性训练对其有影响,但对表现影响不大,同时混合专家方法则显著提高了表现并比较了几种混合函数,包括一种基于注意力的新混合方法。
PDF
4 years ago
Prev
Next