本文介绍了一种连续学习的分类模型,可以防止神经网络在逐个学习任务时出现catastrophic forgetting。作者通过扩展已有技术,并提出了一种新的变分下界方法,使得神经网络在连续学习中可以同时保持之前学到的知识。
Oct, 2018
该研究实证分析了在连续学习过程中,引入极小的叙事性记忆在任务之间转移知识的有效性,并发现相较于特定的连续学习方法,该方法能利用极小的记忆显著提升泛化能力,对小样本问题有一定的启示。
Feb, 2019
通过研究任务增量设置和在线连续设置,本文提出了一些方法以解决神经网络的严重遗忘问题,并在不同的基准测试和学习序列上进行了评估,显示了连续学习技术现在的发展和应用面临的挑战。
Oct, 2019
本文针对循环神经网络(RNNs)顺序数据的连续学习(CL)方法进行了全面评估,发现了应用权重重要性方法时的特殊性,并提出了一种基于超级网络的正则化方法,有效解决了RNNs上的连续学习问题。
Jun, 2020
该研究论述了在线持续学习图像分类问题,其中的任务可能包括新类别或数据非稳态。因为不同的实验设置以及不同的任务类别可能需要不同的方法,作者系统地比较了现有的MIR,iCARL和GDumb等方法,并评估了七个方法,以了解简单而有效的技巧对性能的影响,最终得出了MIR是一种强大而通用的在线持续学习方法。
Jan, 2021
通过对最优线性分类器表现的差异考虑“表示忘却”的概念,本研究重新审视了一些标准的连续学习基准,并观察到在没有任何明确控制忘却的情况下,模型表示通常会经历较小的表示忘却,并且有时可以与明确控制忘却的方法相当,尤其是在更长的任务序列中。我们还展示了表示忘却如何推动我们对于连续学习中模型容纳能力和损失函数影响的认识。基于这些结果,我们提出一个简单但是竞争力强的方法是,在构建旧样本的原型时,通过标准的有监督对比学习来不断地学习表示。
Mar, 2022
本研究全面综述了不断学习的基本设置,理论基础,代表性方法和实际应用,总结了不断学习的目标,并通过当前趋势,跨方向前景和跨学科与神经科学的联系开展了深入讨论。
Jan, 2023
本文研究了增量类学习的最新方法,并指出很多算法在计算、存储和内存方面效率极低,有些甚至比从头开始训练的方法更费时,作者认为在实际应用中,不能忽视这些算法的资源消耗,持续学习不仅仅只是为了减轻灾难性遗忘。
Mar, 2023
本文研究神经网络在不断学习时如何学习和忘记其代表特征并引入了任务排除比较等新的分析技术。研究发现大部分特定任务的特征很快被遗忘,但回放和代表特征学习等方法可影响代表特征及其品质与学习绩效的紧密相关性。
Apr, 2023
机器学习系统的持续学习能力受到灾难性遗忘的限制,本文提出一种新的概念性方法来解决持续分类中的问题,通过区分需要记忆的类别特定信息和总结泛化的类别无关知识,并且通过利用类别无关网络来执行分类,提高随时间推移过去任务的准确性,同时支持开放式分类和一次性泛化模型。
Dec, 2023