Sep, 2020

CokeBERT: 基于上下文知识选择和嵌入的增强预训练语言模型

TL;DR本文提出了一种名为 Coke 的新型框架,它可以动态地选择上下文知识和嵌入知识上下文,以用于 PLMs,该框架可避免无法匹配输入文本的冗余和模糊知识的影响,实验结果表明,Coke 比各种基线模型在典型的知识驱动 NLP 任务上表现更好,并且能以更可解释的形式描述文本相关知识的语义。