本文提出一种新的可扩展体系结构和训练算法解决 Deep Learning 在 lifelong learning 场景中面临的挑战,尤其是在训练时间和内存限制下存储经验的问题,并在性能评估中取得了显著提升。
Nov, 2017
通过研究任务增量设置和在线连续设置,本文提出了一些方法以解决神经网络的严重遗忘问题,并在不同的基准测试和学习序列上进行了评估,显示了连续学习技术现在的发展和应用面临的挑战。
Oct, 2019
本文提出了一个新的永续学习框架 “理想永续学习器”(ICL),其通过构造保证避免了灾难性遗忘。我们证明了 ICL 统一了多种现有的永续学习方法,并为这些方法的优缺点提供了新的理论见解。最后,我们将 ICL 与现代研究领域中的经典主题和研究课题联系起来,以期激发未来的研究方向。
Apr, 2023
连续学习是机器学习的一个子领域,本文调查了连续学习研究中的内存受限设置、未解决的问题以及未来的研究方向。
Nov, 2023
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了 11 种持续学习方法和 4 种基线的方法的强弱和影响。
Sep, 2019
本文提出了一个理论方法来解释在连续学习任务中避免遗忘的可行性和困难性,主要发现是实现这样的算法通常需要解决 NP 问题和具有完美的内存存储能力。此发现在经验回放、情景记忆和核心集等方面的 CL 算法表现出的优异表现相对于基于正则化方法是有理论基础的。
Jun, 2020
提出一种终身学习算法,通过维护和完善内部特征表示,使前面学习所得的知识能够迁移并应用于接下来的学习任务中,从而提高样本利用效率,并通过实验证明,与现有的终身学习方法相比具有更高的效率。
Oct, 2021
本文提出了一种更综合全面的衡量连续学习算法的方法,包括准确性、知识转移、内存占用和计算效率等多方面的度量,并将这些度量融合成一个评分,通过评估五种算法在 iCIFAR-100 数据集上的表现来证明这种方法的优越性。
Oct, 2018
本论文提出一个连续的学习框架,旨在解决神经网络训练过程中遗忘的问题,并定义了一系列新的指标来实现对学习机的实时评估,研究表明既有重放机制又有正则化机制的在线学习方法都存在稳定性差距的问题。
May, 2022
本文介绍了一种连续学习的分类模型,可以防止神经网络在逐个学习任务时出现 catastrophic forgetting。作者通过扩展已有技术,并提出了一种新的变分下界方法,使得神经网络在连续学习中可以同时保持之前学到的知识。