Apr, 2023

连续学习是否平等遗忘所有参数?

TL;DR本文针对持续学习过程中的分布漂移(如任务或领域漂移)导致神经网络对原有任务的忘记问题,研究了神经网络中哪些模块更容易被遗忘,提出了遗忘优先微调(FPF)和基于周期触发的 $k$-FPF 两种方法,取得了较好的效果并显著降低了计算成本。实验表明,FPF 方法在几个增量 CL 基准测试中均能显著提高方法效果,$k$-FPF 进一步提高了效率而不降低准确性。