Feb, 2020

使用适配器将知识注入预训练模型

TL;DR提出 K-Adapter 框架以支持在 RoBERTa 上进行多种类型的知识注入,该框架拥有一个适配器与 RoBERTa 相连,并且在适配器之间没有信息流动,因此可以以分布式方式有效地训练多个适配器。通过在三个知识驱动的任务上的实验,如实体分类、关系分类和问题回答,证明了每个适配器都可以提高性能,并且两个适配器的组合带来了进一步的改进。与 RoBERTa 相比,进一步的分析表明,K-Adapter 更能捕捉不同类型的知识。