Nov, 2019

使用单词对齐注意力增强预训练的汉字表示

TL;DR文章提出了一种新的以词为基本单元的对齐注意力方法,用于解决原有以字符为基本单元的中文预训练模型无法充分利用词义信息的问题,并通过多源信息融合的方式解决了分词误差传递的潜在问题,实验结果表明该模型对于五种中文NLP基准任务能够带来显著提升。