为合适的原因而记忆:阐释减少灾难性遗忘
本文介绍了一种新颖的观点,以显著减轻连续学习中的灾难性遗忘,强调模型保持现有知识和吸收新信息的能力。我们提出了 COgnitive REplay (CORE) 的方法,包括自适应数量分配和质量导向数据选择这两个关键策略。该方法在 split-CIFAR10 上的平均准确率为 37.95%,超过最佳基准方法 6.52%。此外,它还将最差表现任务的准确率相比顶级基准提高了 6.30%。
Feb, 2024
RECALL 是一种重播增强方法,通过自适应规范化和旧任务的策略蒸馏,在新任务上增强普适性和稳定性,从而显著改善持续强化学习中灾难性遗忘的问题。在 Continual World 基准测试中,RECALL 的性能明显优于纯粹的完美记忆重播,与最先进的持续学习方法相比,整体性能相当甚至更好。
Nov, 2023
本文提出了一个理论方法来解释在连续学习任务中避免遗忘的可行性和困难性,主要发现是实现这样的算法通常需要解决 NP 问题和具有完美的内存存储能力。此发现在经验回放、情景记忆和核心集等方面的 CL 算法表现出的优异表现相对于基于正则化方法是有理论基础的。
Jun, 2020
通过在 Experience Replay 框架中引入一致性正则化方法,将其作为自监督前提任务,并在各种连续学习场景下进行研究。结果表明,相对严格的一致性约束可以更好地保留以前任务的信息。
Jul, 2022
本研究提出了一种基于强化经验回放的连续学习方法,通过使用当前训练数据模仿未来经验,以及蒸馏内存缓冲区的过去经验,来提高模型的预测一致性,从而有效保留已获得的知识。实验结果表明,我们的方法在多个图像分类数据集上优于现有方法。
May, 2023
基于丰富的记忆资源和训练效率的重视,我们引入了一种适应性记忆回放的框架来解决不断学习问题,通过多臂赌博机问题的方法来动态选择训练数据,从而在保持高性能的同时减少了遗忘达 10%。
Apr, 2024
提出了一种利用深度生成网络结合图像分类和强化学习领域中的连续学习思想的模型,该模型具有双重记忆系统和伪回放系统,能够在 Atari 2600 游戏中完成顺序学习而不会遗忘前面的任务,并且随着任务数量的增加不需要额外的存储要求,存储原始数据或重新访问过去的任务。
Dec, 2018
本研究提出了一种名为 Review Learning 的深度学习连续学习技术,使用神经突触权重中存储的记忆信息生成数据样本,并避免了在数据集转移学习中出现的灾难性遗忘现象,从而在保护数据隐私的前提下,提高了模型的性能表现。在使用三类二分类电子病历数据进行仿真和真实医疗多机构实验验证后,本文表明 Review Learning 能够高效保留之前学习的知识。
Oct, 2022