EMNLPOct, 2022

一种高效的记忆增强转换器,用于知识密集型 NLP 任务

TL;DR提出了 Efficient Memory-Augmented Transformer (EMAT) 作为一种结合参数式模型和检索式增强模型的方法,有效地利用外部知识源以提高自然语言处理任务的准确性和计算效率。通过将外部知识编码为键值内存,并利用内积搜索来查询,使用预训练任务编码有信息的键值表示,并学习将多个内存插槽集成到变压器中的隐式策略,EMAT 在众多知识密集型任务上取得了更准确的结果。