ACLOct, 2021

追溯起源:具有共指关注的机器阅读理解

TL;DR本文介绍了一种模拟人类阅读过程并利用实体的指代信息来增强预训练语言模型中的词嵌入以提高模型性能的方法,头两种微调方式,即在预训练模型后添加额外的编码器层以关注实体的指代提及或构建关系图卷积网络来建模实体间的关系。结果表明,在微调阶段明确加入指代信息的方法比在预训练中加入指代信息的方法表现更好。