防止灾难性遗忘的神经网络提醒
研究使用生成对抗网络和网络抓取数据重现不可用的旧类数据,避免遗忘和背景类的数据分布变化,达到在连续学习中存在不同步骤和背景类分布变化的情况下更好的表现。
Aug, 2021
研究了当神经网络被培训在一个时间上变化的数据流时,其面临的 “灾难性遗忘” 问题。本文提出并实验了一种简单的 rehearsal-based 方法,即 Experience Replay,并证明其相对于现有的基于 rehearsal 的方法有了极大的精度提升。
Oct, 2020
RECALL 是一种重播增强方法,通过自适应规范化和旧任务的策略蒸馏,在新任务上增强普适性和稳定性,从而显著改善持续强化学习中灾难性遗忘的问题。在 Continual World 基准测试中,RECALL 的性能明显优于纯粹的完美记忆重播,与最先进的持续学习方法相比,整体性能相当甚至更好。
Nov, 2023
本文介绍了 5 种减轻神经网络灾难性遗忘的机制(规则化,合成,彩排,双重记忆和稀疏编码)并提供了新的指标和基准来直接比较它们,实验结果表明,这些机制对于实现最佳性能而言是至关重要的,但难以完全解决灾难性遗忘问题。
Aug, 2017
提出了一种利用深度生成网络结合图像分类和强化学习领域中的连续学习思想的模型,该模型具有双重记忆系统和伪回放系统,能够在 Atari 2600 游戏中完成顺序学习而不会遗忘前面的任务,并且随着任务数量的增加不需要额外的存储要求,存储原始数据或重新访问过去的任务。
Dec, 2018
本篇文章提出了一种新的方法来缓解训练神经网络时非稳态带来的行为遗忘现象,利用模型内部的内隐记忆来进行实时样本生成,并侧重于优化实际的训练数据批次,从而高效和可扩展的进行训练。作者探讨了该方法与大脑模型的对应之处,并发现这种方法的高效特性是自然而然地产生的。
Jun, 2020
SurpriseNet 是一种解决持续学习中灾难性干扰和跨任务知识学习问题的方法,通过参数隔离和基于异常检测的自编码器来处理,适用于结构化和非结构化数据。
Oct, 2023
介绍了防止深度神经网络在连续学习中出现灾难性遗忘的方法 Few-shot Self Reminder(FSR),利用对旧任务的选定样本进行 logit 匹配,只需重新训练少量数据,就能在知识保留方面超过以往的方法,证明该方法在两个不同的连续学习设置以及一个新的连续学习问题上的优越性。
Dec, 2018
本文介绍了一种新颖的观点,以显著减轻连续学习中的灾难性遗忘,强调模型保持现有知识和吸收新信息的能力。我们提出了 COgnitive REplay (CORE) 的方法,包括自适应数量分配和质量导向数据选择这两个关键策略。该方法在 split-CIFAR10 上的平均准确率为 37.95%,超过最佳基准方法 6.52%。此外,它还将最差表现任务的准确率相比顶级基准提高了 6.30%。
Feb, 2024