增量深度神经网络中灾难性遗忘的方法学研究
本文介绍了 5 种减轻神经网络灾难性遗忘的机制(规则化,合成,彩排,双重记忆和稀疏编码)并提供了新的指标和基准来直接比较它们,实验结果表明,这些机制对于实现最佳性能而言是至关重要的,但难以完全解决灾难性遗忘问题。
Aug, 2017
近期深度学习模型在图像分类或生成等任务中取得了显著的性能,并经常超越人类的准确性。然而,它们在没有访问先前数据的情况下,学习新任务和更新知识可能会遇到困难,这导致了被称为灾难性遗忘的显著准确性损失。本文综述了关于使用梯度下降作为学习算法的现代深度学习模型中解决灾难性遗忘的最近研究,尽管已提出了多种解决方案,但尚未建立确定性的解决方案或关于评估灾难性遗忘的共识。本文对最近的解决方案进行了全面的评述,提出了一个分类法以组织这些解决方案,并明确了这一领域的研究空白。
Dec, 2023
通过大规模实证研究,我们提出了一种新的实验协议,并在目前最多的视觉分类数据集上评估序列学习任务,结果表明在应用场景下,没有一种模型能够避免所有的灾难性遗忘,最后我们探讨了 EWC 和 IMM 模型的潜在解决方案和解决方法.
May, 2019
研究表明,使用简单的组件和一个平衡内部和外部任务学习的损失函数组合已经可以解决神经网络在新任务上学习所导致的经典遗忘现象。同时,报道了在类增量学习中,表示品质较差是另一个使经典遗忘现象出现的原因,并通过适当的正则化程序改进了性能。在这些发现的基础上,研究结果在 CIFAR-100 和 ImageNet 上均取得了国际领先的成果,方法简单易实现。
Feb, 2021
本研究利用师生学习理论框架分析了连续学习训练中避免 “灾难性遗忘” 的问题,发现输入分布相似性小和目标函数的输入输出关系相似性大时,可以有效避免 “灾难性遗忘”,研究结果还揭示了一种特征现象称为超调现象。
May, 2021
该论文在构建一个统一的概念和实验框架中,研究了解决神经网络过度拟合的方法,描述了增量学习算法的六个重要属性,探讨了过去样本选择的效用,并提供了可重现性的开源存储库。
Nov, 2020
本书章节探讨了持续学习的动态,即从非固定数据流中增量学习的过程。尽管对于人脑来说是一种自然的技能,但对于人工神经网络来说却非常具有挑战性。这是因为当学习新知识时,这些网络往往会迅速而彻底地忘记之前所学的知识,这一现象被称为灾难性遗忘。特别是在过去十年中,持续学习已成为深度学习中被广泛研究的主题。本书章节回顾了该领域产生的见解。
Mar, 2024
探究现代神经网络机器学习模型在不同任务训练后的 “灾难性遗忘” 问题,发现以 dropout 算法为代表的梯度训练算法可以最好地适应新任务并记住旧任务,而不同任务间的关系会显著影响激活函数表现,建议激活函数选择交叉验证。
Dec, 2013
研究神经网络中的遗忘问题,提出了一种不同于以往的方法来解决该问题,且不会使用源域的信息,此方法在减少遗忘源域信息方面非常有效,同时实验表明使用该方法可以提高网络在识别率等方面的性能。
Jul, 2016