Nov, 2023
在线连续知识学习的语言模型
Online Continual Knowledge Learning for Language Models
TL;DR在这篇论文中,我们介绍了一个新的问题,在持续学习领域中称为“在线持续知识学习(OCKL)”。我们提出了一个新的基准和评估指标,旨在测量新知识获取的速度和先前学到的知识的保留率。通过使用各种最先进的方法进行的实证评估为OCKL建立了稳健的基准。我们的结果显示,现有的持续学习方法对于应对OCKL提出的独特挑战不足够。我们确定了影响知识获取和保留之间权衡的关键因素,从而推进了我们对如何在不断演化的环境中训练LLMs的理解。