ACLOct, 2020

基于元学习的中文分词预训练

TL;DR本研究发现,先前使用的预训练模型往往采用语言建模作为预训练任务,缺少任务特定的分词先验知识并忽略预训练任务与下游分词任务之间的差异。为此,我们提出了一种 CWS 特定的预训练模型 METASEG,它采用统一架构并将元学习算法结合到多标准预训练任务中。实验证明,METASEG 可以利用不同现有标准的常见分词先验知识,并减轻预训练模型与下游 CWS 任务之间的差异。此外,METASEG 可以在 12 个广泛使用的 CWS 数据集上实现新的最佳性能,并显著提高低资源环境下的模型性能。