Oct, 2021
提及记忆:通过实体提及注意力将文本知识融入 Transformers
Mention Memory: incorporating textual knowledge into Transformers through entity mention attention
Michiel de Jong, Yury Zemlyanskiy, Nicholas FitzGerald, Fei Sha, William Cohen
TL;DR该论文提出了一种利用 Transformer 模型中的半参数表示以及文本语料库的 “指向记忆” 来提取多个文本来源的事实信息的方法,称为 TOME,并在多个实验中证明其在自然语言理解任务中的优异表现。