ACLMar, 2021
针对无监督神经机器翻译,提升预训练语言模型的词汇能力
Improving the Lexical Ability of Pretrained Language Models for Unsupervised Neural Machine Translation
Alexandra Chronopoulou, Dario Stojanovski, Alexander Fraser
TL;DR本文介绍了一种基于子词嵌入的双语掩码语言模型预训练方法,应用于无监督神经机器翻译和双语词汇归纳任务中均取得了较好的性能表现。