EMNLPMay, 2020

常识还是世界知识?研究基于 Adapter 的预训练 transformer 知识注入

TL;DR本文介绍了通过适配器训练在 BERT 的分布式知识基础上,将 ConceptNet 和其对应的 OMCS 语料库的概念知识注入到语言模型中以提高推理性能的方法。实验结果表明,适配器训练得到的模型在需要 ConceptNet 和 OMCS 所代表的概念知识进行推理的任务中表现显著优于 BERT。