Apr, 2024

AdapterSwap:带有数据删除和访问控制保证的 LLM 连续训练

TL;DR大型语言模型(LLM)可以通过从静态预训练语料库中提取信息来完成知识密集型任务。我们介绍了一种名为 AdapterSwap 的训练和推理方案,它将数据集中的知识组织成一组低秩适配器,并在推理过程中动态组合,以解决在不断演变的数据需求背景下既满足新数据需求又不忘记旧信息的问题。我们的实验证明了 AdapterSwap 在支持高效的持续学习的同时,还能使组织对数据访问和删除拥有细粒度的控制。