关于自适应方法在连续学习中的收敛性
本文介绍了一种用于持续学习的有监督对比学习框架,旨在通过保存少量的数据和适应的分类准则来解决在学习新任务时可能产生的灾难性遗忘问题,实验表明其表现优异。
May, 2023
本论文提出一个连续的学习框架,旨在解决神经网络训练过程中遗忘的问题,并定义了一系列新的指标来实现对学习机的实时评估,研究表明既有重放机制又有正则化机制的在线学习方法都存在稳定性差距的问题。
May, 2022
本文提出了一个新的永续学习框架 “理想永续学习器”(ICL),其通过构造保证避免了灾难性遗忘。我们证明了 ICL 统一了多种现有的永续学习方法,并为这些方法的优缺点提供了新的理论见解。最后,我们将 ICL 与现代研究领域中的经典主题和研究课题联系起来,以期激发未来的研究方向。
Apr, 2023
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了 11 种持续学习方法和 4 种基线的方法的强弱和影响。
Sep, 2019
本文提出了一种正则化连续学习的新视角,将其定义为每个任务损失函数的二阶 Taylor 近似,得到了一个可实例化的统一框架,并研究了优化和泛化特性,理论和实验结果表明二阶 Hessian 矩阵的精确近似非常重要。
Jun, 2020
本文探讨了在有限环境中增长任务数量的情景下,通过一种新的实验框架 SCoLe,借助随机梯度下降法,实现在长序列的任务中进行知识积累和保留,提出了一种改进的随机梯度下降方法以便于在此设置中进行继续学习的算法,并通过合适的实验框架展示了新的可持续性学习学习机制。
Jul, 2022
本文提出了一个框架,用于解决神经网络在数据分布不稳定时的忘记问题,该框架结合了元学习和持续学习技术的优点,避免了对任务边界的先验知识,并重点关注了如何更快地恢复性能。在监督学习情境下,我们展示了该框架的应用和效果。
Jun, 2019
本文介绍了一种连续学习的分类模型,可以防止神经网络在逐个学习任务时出现 catastrophic forgetting。作者通过扩展已有技术,并提出了一种新的变分下界方法,使得神经网络在连续学习中可以同时保持之前学到的知识。
Oct, 2018
在连续流数据的情景中,深度神经网络在解决多个分类任务时,面临着保持旧任务知识同时学习新任务的挑战。本研究分析了当前度量方法的局限性,发现了新任务引起的遗忘问题,并提出了一套考虑任务难度增加的新度量方法,实验证明这些度量方法能够提供有关模型在连续学习环境中平衡稳定性和可塑性的新见解。
Sep, 2023
机器学习系统的持续学习能力受到灾难性遗忘的限制,本文提出一种新的概念性方法来解决持续分类中的问题,通过区分需要记忆的类别特定信息和总结泛化的类别无关知识,并且通过利用类别无关网络来执行分类,提高随时间推移过去任务的准确性,同时支持开放式分类和一次性泛化模型。
Dec, 2023