在特征协方差的零空间中训练网络以进行持续学习
本文提出了一种新的连续学习方法 Advanced Null Space (AdNS),通过使用低秩逼近获取新的零空间并将梯度投影到零空间中,从而实现平衡稳定性和可塑性,解决了连续学习中的稳定性 - 可塑性困境,并提出了一种简单而有效的方法 intra-task distillation 来提高当前任务的性能。实验结果表明,与最先进的连续学习方法相比,该方法可以实现更好的性能。
Jul, 2022
本文研究了在环境改变时如何使模型具有可持续发展能力,在理论层面上证明了增量学习的可行性,并提出了一种新的模型架构 ——Cooperation of Small Continual Learners (CoSCL),该模型使用一组独立的子网络来学习所有的任务,有助于提高模型的泛化能力和记忆稳定性,并取得了新的最优性能。
Jul, 2022
本文提出了两种生物启发机制,基于稀疏性和异构 dropout,显著提高了连续学习者在长时间序列任务中的表现,并在多项基准连续学习问题上展示了重大的性能提升。
Mar, 2022
在类增量学习场景中,利用可用模型容量提出 SpaceNet,该方法从头开始以自适应方式训练稀疏的深度神经网络,压缩每个任务的稀疏连接到较少的神经元,实现稀疏表示并降低任务之间的干扰。在多个 CL 基准测试中,SpaceNet 优于基于正则化的方法,并且比扩容的基于架构的方法性能更好,同时还实现了大幅度的内存缩减。
Jul, 2020
提出了一种名为 LRFR 的新型训练算法,通过在过去任务的特征表示矩阵的零空间中优化网络参数来保证稳定性,同时在训练各个任务时仅选择网络各层中的部分神经元来学习过去任务的特征表示矩阵以增加零空间维度,从而增强了网络参数设计时的可塑性,该方法在持续学习的基准数据集 CIFAR-100 和 TinyImageNet 上持续优于最先进的方法。
Dec, 2023
该论文介绍了对于连续学习中的收敛性分析,提出了一种适应性方法用于非凸连续学习,该方法调整先前和当前任务的梯度的步长,以达到与 SGD 方法相同的收敛速度,并且在减轻每次迭代的灾难性遗忘项的情况下,改进了连续学习在几个图像分类任务中的性能。
Apr, 2024
通过引入辅助网络实现稳定性与可塑性平衡的新方法 ANCL,在任务递增和类递增场景下表现优异,并揭示了稳定性与可塑性之间的基本原则。
Mar, 2023
本文提出了一种基于任务条件化超网络的新方法,使得连续学习的模型可以通过简单的关键特征记住特定任务的权重实现在记忆中的持久化,并在标准连续学习基准测试上达到了最先进的性能,同时揭示了该方法在迁移学习上的应用前景。
Jun, 2019
文章提出了一种基于 VAE 模块的连续零样本学习模型 (A-CZSL),用于解决人工神经网络与人类区别在于传统模型很难取得不同阶段任务良好的表现,模型大小在任务逐步增加的同时增长以防遗忘,并展示其在零样本学习和广义零样本学习上的优越性能。
Feb, 2021
本研究提出了一种名为 MuFAN 的在线连续学习框架,利用不同级别的预训练网络中提取的更丰富的上下文编码,并引入了一种新颖的基于结构的蒸馏损失和稳定性 - 可塑性标准化模块,用于同时保持高可塑性和稳定性。MuFAN 在多个数据集上优于其他现有的连续学习方法。
Feb, 2023