Feb, 2024

语言模型完善中被遗忘的示例预测

TL;DR语言模型在实际应用中存在错误。为了改进回放过程和可解释性,我们尝试预测由于模型更新而被遗忘的上游示例。通过训练预测模型,我们提出了一种部分可解释的预测模型,基于预训练示例的前 softmax 对数几率分数的变化与在线学习示例的相似性,其在 BART 模型上表现良好但在 T5 模型上失败。我们进一步展示了基于示例表示内积的黑盒分类器,在一系列设置中取得了更好的预测性能。最后,通过回放被预测将被遗忘的示例,我们减少了上游预训练示例的遗忘,证明了预测示例遗忘的实际应用效用。