ACLApr, 2021

Lattice-BERT: 在中文预训练语言模型中利用多粒度表示

TL;DR该研究提出了一种新的中文预训练模型 Lattice-BERT,使用字符和词语来构建格状结构,实现了多粒度的文本建模,在 11 个中文自然语言理解任务中取得了 1.5% 的平均增益,并在 CLUE 基准测试中达到了新的最优表现。