利用任务硬注意力克服灾难性遗忘
探究现代神经网络机器学习模型在不同任务训练后的 “灾难性遗忘” 问题,发现以 dropout 算法为代表的梯度训练算法可以最好地适应新任务并记住旧任务,而不同任务间的关系会显著影响激活函数表现,建议激活函数选择交叉验证。
Dec, 2013
本文介绍了 5 种减轻神经网络灾难性遗忘的机制(规则化,合成,彩排,双重记忆和稀疏编码)并提供了新的指标和基准来直接比较它们,实验结果表明,这些机制对于实现最佳性能而言是至关重要的,但难以完全解决灾难性遗忘问题。
Aug, 2017
本研究探讨了机器学习系统中存在的灾难性遗忘问题,发现深层网络是导致遗忘的主要因素,并介绍了稳定深层网络的方法。实证分析表明,任务相似度与遗忘程度具有相关性。在标准的 split-CIFAR-10 设置上进行了实验,并引入了一个基于 CIFAR-100 的任务,近似实现了输入分布的转移,得到了一些有益的结论。
Jul, 2020
机器学习中的灾难性遗忘是一个重要的挑战,本文提出了一种新的方法来防止机器学习应用中的灾难性遗忘,并展示了该方法在连续学习设置中提高神经网络性能的潜力。
Nov, 2023
在这篇论文中,我们研究了导致人工神经网络在变化的数据分布上训练后旧任务性能迅速下降的表征性变化,并确定了解释这一现象的三个不同过程。最主要的成分是隐藏表征与输出层之间的不对齐,这种不对齐是由于在其他任务上的学习造成的,它导致内部表征发生位移。表征几何在这种不对齐下部分保留,并且只有一小部分信息是无法恢复的。所有类型的表征性变化与隐藏表征的维度成比例。这些洞见对需要不断更新的深度学习应用具有重要的意义,同时也对将人工神经网络模型与相对稳健的生物视觉对齐有帮助。
Oct, 2023
近期深度学习模型在图像分类或生成等任务中取得了显著的性能,并经常超越人类的准确性。然而,它们在没有访问先前数据的情况下,学习新任务和更新知识可能会遇到困难,这导致了被称为灾难性遗忘的显著准确性损失。本文综述了关于使用梯度下降作为学习算法的现代深度学习模型中解决灾难性遗忘的最近研究,尽管已提出了多种解决方案,但尚未建立确定性的解决方案或关于评估灾难性遗忘的共识。本文对最近的解决方案进行了全面的评述,提出了一个分类法以组织这些解决方案,并明确了这一领域的研究空白。
Dec, 2023
研究神经网络中的遗忘问题,提出了一种不同于以往的方法来解决该问题,且不会使用源域的信息,此方法在减少遗忘源域信息方面非常有效,同时实验表明使用该方法可以提高网络在识别率等方面的性能。
Jul, 2016
本文研究在序列数据上的持续学习问题,重点讨论了 LSTM 网络的遗忘和多任务学习问题,并提出了两种有效的解决方案,证明了这种方法比现有的权重正则化方法更为简单、高效,可应用于计算机系统优化和自然语言处理等领域。
May, 2023
通过添加上下文依赖的门控信号,使得只有稀疏且大多非重叠的单元模式在任何一个任务中处于活动状态,从而稳定 ANN 的连接权重,以减轻灾难性遗忘。该方法易于实施,计算开销小,并且在与权重稳定相结合情况下能够使 ANN 在大量顺序呈现的任务中保持高性能,这些工作提供了另一个神经科学启发的算法如何有益于 ANN 设计和能力的例子。
Feb, 2018