EMNLPOct, 2018

基于加减双门循环网络简化神经机器翻译

TL;DR本文提出了一种称为 ATR 的附加减法双门控循环网络,其采用了双门机制来构建高度相关的输入门和遗忘门。通过使用简单的加法和减法操作对循环单元进行了大幅简化,但保留了关键的非线性和长距离依赖建模能力。实验结果表明,ATR 在 WMT14 翻译任务中表现出竞争力,在英德和英法语种对的翻译质量和速度上均取得了良好的表现,并且在不同的自然语言处理任务中都表现出了通用性和适用性。