自适应权重巩固在连续学习中的应用
该研究提出了一种利用权重融合方法的持续学习新方法,通过在每个新任务之后插值旧模型和新模型的权重,将两个模型合并,以便探索新概念到来后出现的局部最小值。实验结果表明,提出的权重融合方法明显改善了最先进的经验重放算法的性能。
Apr, 2024
该论文介绍了对于连续学习中的收敛性分析,提出了一种适应性方法用于非凸连续学习,该方法调整先前和当前任务的梯度的步长,以达到与 SGD 方法相同的收敛速度,并且在减轻每次迭代的灾难性遗忘项的情况下,改进了连续学习在几个图像分类任务中的性能。
Apr, 2024
弹性变分持续学习与权重保持的混合模型可以有效地缓解灾难性遗忘,并能更好地捕捉模型参数与任务特定数据之间的依赖关系。在五个可分辨任务上进行评估,该模型在领域增量和任务增量学习场景中持续优于现有基线模型。
Jun, 2024
本文提出了一种简单但有效的方法来实现深度学习的连续增量学习,该方法结合了深层模型压缩、关键权重选择和渐进网络扩展的原理,在迭代中实现它们的集成,从而能够实现多种任务的增量学习,避免遗忘并保持模型的紧凑性。在实验中,该方法能够在不遗忘前面任务的情况下,增量学习处理多个任务的深度模型,同时对于单个任务的训练也具有更好的性能表现。
Oct, 2019
本文提出了一种正则化连续学习的新视角,将其定义为每个任务损失函数的二阶 Taylor 近似,得到了一个可实例化的统一框架,并研究了优化和泛化特性,理论和实验结果表明二阶 Hessian 矩阵的精确近似非常重要。
Jun, 2020
本文介绍了一种用于持续学习的有监督对比学习框架,旨在通过保存少量的数据和适应的分类准则来解决在学习新任务时可能产生的灾难性遗忘问题,实验表明其表现优异。
May, 2023
本文研究了在环境改变时如何使模型具有可持续发展能力,在理论层面上证明了增量学习的可行性,并提出了一种新的模型架构 ——Cooperation of Small Continual Learners (CoSCL),该模型使用一组独立的子网络来学习所有的任务,有助于提高模型的泛化能力和记忆稳定性,并取得了新的最优性能。
Jul, 2022
本文探讨了在有限环境中增长任务数量的情景下,通过一种新的实验框架 SCoLe,借助随机梯度下降法,实现在长序列的任务中进行知识积累和保留,提出了一种改进的随机梯度下降方法以便于在此设置中进行继续学习的算法,并通过合适的实验框架展示了新的可持续性学习学习机制。
Jul, 2022
本文介绍了一种针对串行联邦学习的简单而强大的方法 —— 循环权重整合(Cyclical Weight Consolidation,CWC),通过使用一个整合矩阵来控制局部优化,防止显著权重的突变。该方法在各种非独立同分布(non-IID)的环境中减轻了原始串行联邦学习方法的波动性,并显著提升了收敛性能。改进后的性能要么与并行的基准性能相媲美,要么更好。
May, 2024
在这项研究中,我们研究了增量学习(CL)的问题,其目标是在一系列任务中学习模型,使得先前任务的数据在学习当前任务数据时不可用。我们提出了一种称为 Continual Model Averaging(或 CoMA)的加权集成模型,它在保持稳定性的同时,通过利用可塑性,在当前任务上达到高准确性。我们还提出了一种改进的 CoMA 变体,称为 Continual Fisher-weighted Model Averaging(或 CoFiMA),通过利用模型权重的 Fisher 信息,有选择地对加权集合中的每个参数进行加权。这两种变体概念简单、易于实现,并在多个标准 CL 基准测试中实现了最先进的性能。
Dec, 2023