Apr, 2021
Lattice-BERT: 在中文预训练语言模型中利用多粒度表示
Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese
Pre-trained Language Models
TL;DR该研究提出了一种新的中文预训练模型Lattice-BERT,使用字符和词语来构建格状结构,实现了多粒度的文本建模,在11个中文自然语言理解任务中取得了1.5%的平均增益,并在CLUE基准测试中达到了新的最优表现。