Oct, 2021

提及记忆:通过实体提及注意力将文本知识融入 Transformers

TL;DR该论文提出了一种利用 Transformer 模型中的半参数表示以及文本语料库的 “指向记忆” 来提取多个文本来源的事实信息的方法,称为 TOME,并在多个实验中证明其在自然语言理解任务中的优异表现。