BriefGPT.xyz
Ask
alpha
关键词
seq2seq pretraining
搜索结果 - 1
ACL
神经机器翻译的序列到序列预训练:理解与改进
本文主要研究了 Seq2Seq 预训练在神经机器翻译上的影响,发现 Seq2Seq 预训练可提高翻译多样性,但由于与 NMT 微调存在差异,限制了翻译质量和模型稳健性,进一步提出了域内预训练和输入适应策略可以缓解这些问题。实验结果显示,我们
→
PDF
2 years ago
Prev
Next