EMNLPApr, 2020

通过微调子词系统实现合理大小的基于字符级别的 Transformer NMT

TL;DR实现字符级别的 Transformer 架构通常需要非常深的架构,难以训练。本文提出一种通过在模型中将分词与字元结合进行初步训练,然后在字符级别上调整,从而实现不需要分词的神经机器翻译模型的方法,并且展示了这种方法更好地捕捉了语言形态现象和更加健壮,训练的代价相对较小。