本研究探讨了机器学习系统中存在的灾难性遗忘问题,发现深层网络是导致遗忘的主要因素,并介绍了稳定深层网络的方法。实证分析表明,任务相似度与遗忘程度具有相关性。在标准的 split-CIFAR-10 设置上进行了实验,并引入了一个基于 CIFAR-100 的任务,近似实现了输入分布的转移,得到了一些有益的结论。
Jul, 2020
本文介绍了 5 种减轻神经网络灾难性遗忘的机制(规则化,合成,彩排,双重记忆和稀疏编码)并提供了新的指标和基准来直接比较它们,实验结果表明,这些机制对于实现最佳性能而言是至关重要的,但难以完全解决灾难性遗忘问题。
Aug, 2017
研究了神经网络模型中遗忘问题的解决办法并提出了一种基于学习速率调整方法的连续学习模型,实现了在多个任务上获取并保留专业知识的能力。
Dec, 2016
在这篇论文中,我们研究了导致人工神经网络在变化的数据分布上训练后旧任务性能迅速下降的表征性变化,并确定了解释这一现象的三个不同过程。最主要的成分是隐藏表征与输出层之间的不对齐,这种不对齐是由于在其他任务上的学习造成的,它导致内部表征发生位移。表征几何在这种不对齐下部分保留,并且只有一小部分信息是无法恢复的。所有类型的表征性变化与隐藏表征的维度成比例。这些洞见对需要不断更新的深度学习应用具有重要的意义,同时也对将人工神经网络模型与相对稳健的生物视觉对齐有帮助。
Oct, 2023
通过对最优线性分类器表现的差异考虑 “表示忘却” 的概念,本研究重新审视了一些标准的连续学习基准,并观察到在没有任何明确控制忘却的情况下,模型表示通常会经历较小的表示忘却,并且有时可以与明确控制忘却的方法相当,尤其是在更长的任务序列中。我们还展示了表示忘却如何推动我们对于连续学习中模型容纳能力和损失函数影响的认识。基于这些结果,我们提出一个简单但是竞争力强的方法是,在构建旧样本的原型时,通过标准的有监督对比学习来不断地学习表示。
Mar, 2022
本文提出了一种基于任务的硬注意机制,利用随机梯度下降学习硬注意掩码来保留上一个任务中的信息而不影响当前任务的学习,有效提高神经网络在顺序学习能力上的性能。此方法对不同超参数的选择也具有鲁棒性,并且具有控制学习知识稳定性和紧凑性等特点,在在线学习或网络压缩应用中也是吸引人的。
Jan, 2018
探究现代神经网络机器学习模型在不同任务训练后的 “灾难性遗忘” 问题,发现以 dropout 算法为代表的梯度训练算法可以最好地适应新任务并记住旧任务,而不同任务间的关系会显著影响激活函数表现,建议激活函数选择交叉验证。
Dec, 2013
研究神经网络中的遗忘问题,提出了一种不同于以往的方法来解决该问题,且不会使用源域的信息,此方法在减少遗忘源域信息方面非常有效,同时实验表明使用该方法可以提高网络在识别率等方面的性能。
Jul, 2016
本文介绍了一种基于相关性映射网络 (RMNs) 的新方法,来解决神经网络模型中的 “灾难性遗忘” 问题,该方法受到最优重叠假设的启发,并能够在不违反理想的连续学习系统约束的情况下,显着超越数据重放方法,成为最优连续学习数据集中的主流方法;同时,RMNs 还具备检测新任务数据的无监督学习能力。
Feb, 2021
本文研究在序列数据上的持续学习问题,重点讨论了 LSTM 网络的遗忘和多任务学习问题,并提出了两种有效的解决方案,证明了这种方法比现有的权重正则化方法更为简单、高效,可应用于计算机系统优化和自然语言处理等领域。
May, 2023