架构对于连续学习很重要
本文研究网路架构设计对连续学习的影响,以通过网络宽度、深度和组件等方面的系统性研究,提出了一种 CL 友好的网络架构设计方法,该方法在参数方面比传统的 CL 架构紧凑 86%,61% 和 97% 的参数,在 Class IL 和 Task IL 方面实现了最新的连续学习性能。
Apr, 2024
本论文提出了一种称之为强化连续学习的方法,该方法通过巧妙设计的强化学习策略为每个任务搜索最佳神经架构,不仅能够在防止灾难性遗忘方面有很好的性能,还能够适应新任务。在 MNIST 和 CIFAR-100 数据集的连续分类任务实验中,该方法优于现有的深度网络连续学习替代方案。
May, 2018
提出了一种名为 CLEAS 的新方法,通过与神经结构搜索(NAS)紧密协作,旨在解决神经网络连续学习所面临的挑战:克服灾难性遗忘问题,适应新任务,同时控制其模型复杂度,并通过在神经元层次上设计 NAS 控制器来加强知识转移,以实现更高的分类准确度和更简单的神经网络结构。
Jun, 2020
这篇论文讨论了神经网络模型架构对于解决神经网络遗忘问题的影响,研究了模型宽度对于遗忘现象的意义,并从梯度正交性、稀疏和懒惰训练等角度探讨了神经网络学习动态以提供相应的解释。
Oct, 2021
通过研究任务增量设置和在线连续设置,本文提出了一些方法以解决神经网络的严重遗忘问题,并在不同的基准测试和学习序列上进行了评估,显示了连续学习技术现在的发展和应用面临的挑战。
Oct, 2019
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了 11 种持续学习方法和 4 种基线的方法的强弱和影响。
Sep, 2019
本研究论文中,作者提出使用新型混合经典 - 量子神经网络模型可以避免神经网络在永久学习中的灾难性遗忘问题。同时,模型训练还可以得到更好的性能并学习到最重要的特征。在 MNIST 和 CIFAR-10 数据集上,实验结果表明混合神经网络在记住类特定特征方面优于传统的神经网络。
May, 2023
使用生物学原理进入机器学习模型,我们开发了一种轻量级神经网络结构,通过突触可塑性机制和神经调制,通过本地错误信号进行在线继续学习,从而改善了传统方法的稳定性和记忆限制,在 Split-MNIST,Split-CIFAR-10 和 Split-CIFAR-100 数据集上表现出更好的在线继续学习性能,并在基于回放的方法上达到最先进的记忆密集型方法的性能水平,进一步通过将关键设计概念整合到其他反向传播的继续学习算法中,显著提高了它们的准确性。
Aug, 2023
本文提出了一个用于处理深度神经网络中的灾难性遗忘问题的概念简单、通用且有效的框架,通过优化神经结构和参数学习等两个组件,不仅可以直观有意义地演化神经结构,而且在实验证明了该方法具有很强的缓解灾难性遗忘问题的能力,此方法在连续学习的设置下,优于 MNIST、CIFAR100 和 Visual Domain Decathlon 数据集上的所有基线。
Mar, 2019