Sep, 2023

基于聊天式大型语言模型的上下文干扰

TL;DR大型语言模型对社会产生了巨大影响,但黑盒子情景下,用户只能在当前交互中明确提及来添加或修改内部知识,而不具备修改模型内部知识的能力。本文提出了一个研究,展示了模型在不同上下文中持续流动的信息之间可能出现干扰,从而忘记先前学到的知识,导致模型性能下降,并提出了一个基于 bAbI 数据集的评估基准。