持续学习中的一致性是进一步减轻灾难性遗忘的关键
本研究提出了一种新的压缩激活重放技术,以中间层激活的重放增强深度模型的正则化效果,它在大规模任务、分裂-CIFAR和分裂-miniImageNet数据集上均有显着效果。
Oct, 2020
本论文提出一个连续的学习框架,旨在解决神经网络训练过程中遗忘的问题,并定义了一系列新的指标来实现对学习机的实时评估,研究表明既有重放机制又有正则化机制的在线学习方法都存在稳定性差距的问题。
May, 2022
本文针对持续学习过程中的分布漂移(如任务或领域漂移)导致神经网络对原有任务的忘记问题,研究了神经网络中哪些模块更容易被遗忘,提出了遗忘优先微调(FPF)和基于周期触发的$k$-FPF两种方法,取得了较好的效果并显著降低了计算成本。实验表明,FPF方法在几个增量CL基准测试中均能显著提高方法效果,$k$-FPF进一步提高了效率而不降低准确性。
Apr, 2023
在严格的条件下,通过使用生成回放、模型大小控制、时态正则化等方法,本研究提出了一种脑启发式的持续学习方法,以解决累积学习中遗忘问题,并在重要基准测试中取得了较好的实验结果。
Oct, 2023
连续学习中,我们提出应该同时关注优化目标和优化方式,结合重放逼近联合目标和梯度投影优化方法,以减轻稳定性差距、增加学习效率和改善最终学习结果。
Nov, 2023
在在线连续学习中,通过经验重放防止灾难性遗忘和过拟合的神经网络优化过程可能出现不稳定的轨迹,我们提出了一种解决方案——分层近似重放(LPR),通过优化几何图形,平衡新数据和重放数据的学习,但仅允许对过去数据的隐藏激活进行逐渐变化,我们证明LPR在多个问题设置下稳定提升了基于重放的在线连续学习方法的性能,不受可用重放内存的影响。
Feb, 2024
为了解决持续学习模型中的灾难性遗忘问题,我们提出了一种名为MGSER-SAM的新型基于记忆回放的算法,该算法专门设计用于增强持续学习模型的泛化能力。通过与经验回放框架ER和DER++进行结合,MGSER-SAM可以有效地处理当前任务和之前存储的记忆之间权重扰动方向冲突的复杂挑战。通过在多个基准测试上进行严格的实验分析,MGSER-SAM在所有三种持续学习场景中都表现出了比现有基准模型更好的性能。与基于记忆回放的基准模型ER和DER++相比,MGSER-SAM不仅将测试准确率提高了24.4%和17.6%,还在每个基准测试中实现了最小遗忘。
May, 2024