ACLJun, 2019

一种简单有效的自动后编辑转移学习方法

TL;DR该论文介绍了一种使用预训练的 BERT 模型在自动后编辑系统的编码器和解码器上进行微调的方法,以代替使用大量的人工生成数据进行训练的传统方式,在 23,000 个句子的数据集上进行训练,只需 3 个小时就可以取得与传统方法相当的结果,并且在添加了人工数据之后,该方法可以获得最新的最好的结果。