Jun, 2017

神经序列到序列架构在自动后编辑中的探索

TL;DR本文研究了多种神经架构用于机器翻译自动后编辑任务。研究内容包括:将 $mt$ 和 $src$ 结合在一起直接对目标进行建模的端到端模型、硬注意力模型和以上两种结合。结果表明:将多个神经架构和硬注意力相结合,所构建的双注意力模型在自动后编辑任务中提供了更好的表现。