ACLMar, 2019
利用未标注数据预训练具备复制增量结构的语法错误修正模型以提升性能
Improving Grammatical Error Correction via Pre-Training a Copy-Augmented Architecture with Unlabeled Data
Wei Zhao, Liang Wang, Kewei Shen, Ruoyu Jia, Jingming Liu
TL;DR本文提出了一种复制增强的神经机器翻译方法,使用未标注的 One Billion Benchmark 进行降噪自编码器的预训练,并针对语法错误纠正任务进行了多任务学习,实现了 CoNLL-2014 数据集上的最优结果。