Jan, 2022

Kformer:Transformer前馈层中的知识注入

TL;DR我们提出了一种简单的模型Kformer,它通过在Transformer的FFN层中注入来自PTMs和外部知识的信息,利用了PTMs存储的知识和内部的数量知识神经元。实验结果表明,在常识推理和医学问答等知识密集型任务中,Kformer的表现优于其他知识注入技术,如连接或基于注意力的注入。