Sep, 2018

运行时机器翻译实现的多语言抽取式阅读理解

TL;DR本研究提出一种基于注意力机制的神经机器翻译模型,将源语言(非英语)数据经过翻译转化为目标语言(英语),在英语翻译数据上训练阅读理解模型,在目标语言中生成答案并通过软对齐注意力机制将目标语言中的答案还原回源语言,并且实验表明,我们的方法明显优于最先进的机器翻译系统的回译基线方法。