EMNLPSep, 2018

使用双重 RNN 和相同源预训练的代码交换语言模型

TL;DR该研究通过两种技术改善了代码混合文本的语言模型,提出了一个创新的循环神经网络单元和通过生成模型合成文本进行预训练的方法,实验结果显示,在汉英任务中我们的方法显著降低了困惑度。