Nov, 2023

基于 LoRA 的持续学习的任务算术

TL;DR我们提出了一种新颖的方法,利用低秩适应和任务算术,不断训练基于Transformer的视觉模型,绕过灾难性遗忘问题并减少训练计算需求。在每个类别仅使用10个样本的小内存的帮助下,我们的方法实现了接近于完整微调的性能,并通过严格的消融实验证明了我们方法的优势。