Apr, 2021

Lattice-BERT: 在中文预训练语言模型中利用多粒度表示

TL;DR该研究提出了一种新的中文预训练模型Lattice-BERT,使用字符和词语来构建格状结构,实现了多粒度的文本建模,在11个中文自然语言理解任务中取得了1.5%的平均增益,并在CLUE基准测试中达到了新的最优表现。