May, 2023

在 GPT 中编辑常识知识

TL;DR该研究提出了 $MEMIT_{CSK}$,它是一种适用于常识知识的记忆编辑方法,并在 GPT-2 Large 和 XL 中进行了实验,优于调参方法 10.97%和 10.73% F1 分数。结果表明,通过直接编辑模型来校正和定制模型行为,结合特定于上下文的用户反馈,可以将 $MEMIT_{CSK}$ 应用于 GPT 中的常识,而这一方法未来还有着很大的发展前景。