ACLMay, 2023

双向 Transformer 再排名用于语法错误纠正

TL;DR通过采用 BERT 风格的自注意机制,我们提出了一种双向 Transformer 选手 (BTR),可以找出由预训练 seq2seq 模型产生的候选句子中概率偏差的问题。与 T5-base 相比,BTR 在 CoNLL-14 和 BEA 测试集上可分别产生 65.47 和 71.27 F0.5 分数,在 JFLEG 语料库上可产生 59.52 GLEU 分数,优于 T5-base。