Oct, 2023

在预训练语言模型中发现关键知识子网络

TL;DR我们研究了预训练语言模型是否包含多种具有关键作用的子网络,并提出了一种多目标可微的权重掩蔽方案,以准确删除模型中特定的知识,从而使得模型保留对语言和其他记忆性关联知识的建模能力,但在训练后,其表达被删除知识的能力降低,对需要这些已删除知识的任务产生性能下降。