Mar, 2022

对大型序列标注器进行集成和知识蒸馏,用于语法纠错

TL;DR本文旨在改进 GEC 序列标记体系结构,特别是在大型配置中采用最新的基于 Transformer 的编码器进行集成。通过跨度级别编辑的多数投票方法来鼓励集成模型,我们的最佳集合在 BEA-2019(测试)上获得了 76.05 的 $F_{0.5}$ 分数,即使没有在合成数据集上进行预训练也是如此。此外,我们采用知识蒸馏技术,通过训练集合来生成新的合成数据集,并在公开的合成 PIE 数据集上完成预训练,最终获得 73.21 的 $F_{0.5}$ 分数,其代码、数据集和训练好的模型都可供公开获取。