ACLApr, 2018

将神经语法错误纠正作为低资源机器翻译任务进行处理

TL;DR该论文提出了一套适用于大多数语法错误修正(GEC)环境的模型无关方法,包括添加源端噪音,领域自适应技术,GEC 特定训练目标,单语数据的迁移学习以及集成独立训练的 GEC 模型和语言模型。这些方法的综合效果导致比现有最优神经 GEC 模型更好的表现,表现优于 CoNLL-2014 基准测试中以前最好的神经 GEC 系统超过 10%M2,以及 JFLEG 测试集中的 5.9%。