Mar, 2024

FOCIL:通过训练随机修剪的稀疏专家进行在线课堂增量学习的微调和冻结

TL;DR基于在线继续学习的类别增量学习 (Class incremental learning, CIL) 旨在从数据流中仅使用每个数据点进行一次训练,从一系列新类别中获得知识。本文提出了一种名为 FOCIL 的新的在线 CIL 方法,它通过为每个任务训练随机修剪的稀疏子网络来不断微调主体结构,然后冻结训练好的连接以防止遗忘。FOCIL 还能自适应地确定每个任务的稀疏度水平和学习速率,并确保在所有任务中(几乎)不会遗忘,而无需存储任何重播数据。10 个任务的 CIFAR100、20 个任务的 CIFAR100 和 100 个任务的 TinyImagenet 的实验结果表明,我们的方法在性能上大幅优于 SOTA。代码可在此 https URL 公开获取。