EMNLPApr, 2021

编辑语言模型中的事实知识

TL;DR本文介绍 KnowledgeEditor 一种方法,用于编辑语言模型中的知识,以修复 “错误” 或意外预测,且不需要重新训练或以元学习为前提条件。作者使用受约束的优化来训练一个超网络,该超网络可预测权重更新。作者展示了 KnowledgeEditor 的有效性,其支持两种流行的体系结构和知识密集型任务:一种是针对事实核对进行细微调整的 BERT 模型,另一种是适用于问答的序列到序列 BART 模型。