连续学习中实现遗忘预防和知识迁移
本文是对基于预训练模型的持续学习最新进展的综合调查,将现有方法分为三组进行分类,提供了它们的相似性、差异性、以及各自的优缺点的比较分析,并通过实证研究对比了各种最先进的方法,以凸显比较中公平性方面的关注点。
Jan, 2024
CUBER 是一种用于关键层有积极相关性的老任务的前向知识传递和反向知识传递来提高连续学习中表现的方法,它可以在无数据回放的情况下实现积极的反向知识传递,并且在已有 CL 基准测试中表现优异。
Nov, 2022
本文介绍了一种用于持续学习的有监督对比学习框架,旨在通过保存少量的数据和适应的分类准则来解决在学习新任务时可能产生的灾难性遗忘问题,实验表明其表现优异。
May, 2023
本文提出了一种新的连续学习方法,通过发现为每个任务建立子网络来解决灾难性遗忘,同时引入了软掩模机制来保留先前的知识并实现知识传递,实验结果显示该方法始终优于强基线模型。
Oct, 2023
本文研究了连续学习和迁移学习之间的纠缠关系,提出了一种新方法 Transfer without Forgetting 来解决预训练网络在后续任务中遗忘知识的问题,并证明其在各种数据集和不同缓冲区大小下都能显着优于其他连续学习方法,平均提高了 4.81%的类增量准确性。
Jun, 2022
借鉴大脑同时利用多种机制的方式,我们提出了 TriRE,一种新的持续学习范式,它包括保留每个任务最突出的神经元,修订和巩固当前和过去任务的提取知识,以及通过回溯和重新学习促进次要活跃神经元用于后续任务。在持续学习设置中,TriRE 显著减少了任务干扰,并超过了考虑独立评估的不同持续学习方法。
Oct, 2023
我们提出了一个新的连续学习(CL)范式 Realistic Continual Learning(RealCL),其中任务之间的类分布是随机的,不同于结构化设置。同时,我们引入了一个名为 CLARE 的预训练模型解决方案,旨在在保留过去学习的同时整合新知识。通过广泛的实验证明了 CLARE 在各种 RealCL 场景中的有效性和优越性。
Apr, 2024
研究表明,类增量学习 (CIL) 的问题可以分解为两个子问题:任务内预测 (WP) 和任务 ID 预测 (TP),其中 TP 与分布外检测 (OOD) 相关联。该研究的关键结论是,无论是否通过 CIL 算法显式或隐式定义 WP 和 TP 或 OOD 检测,优秀的 WP 和 TP 或 OOD 检测都对于良好的 CIL 表现是必要且充分的,其中 TIL 就是 WP。基于理论结果,还设计了新的 CIL 方法,其在 CIL 和 TIL 两个设置中性能均优于强基线。
Nov, 2022
本文介绍了一个叫做 “持续学习” 的学习模式,研究了一个叫做 “灾难遗忘” 的问题,提出了一种叫做 “NTK overlap matrix” 的任务相似度度量方法,并介绍了一些算法来减轻灾难遗忘产生的影响。其中,我们提出一种基于主成分分析的正交梯度下降算法可以帮助减轻灾难遗忘在常见持续学习场景下的影响。实验结果表明,我们的方法能够有效减轻灾难遗忘的问题。
Oct, 2020