利用缩放梯度投影进行连续学习
该论文通过从参数空间的角度解决神经网络的连续学习问题,提出了正交梯度下降(OGD)方法,并通过限制梯度更新方向来避免遗忘之前学习的数据。该方法可以更有效地利用神经网络的高容量,并不需要存储先前学习的数据。实验证明,所提出的OGD方法是有效的。
Oct, 2019
本文提出了两种生物启发机制,基于稀疏性和异构dropout,显著提高了连续学习者在长时间序列任务中的表现,并在多项基准连续学习问题上展示了重大的性能提升。
Mar, 2022
连续学习中,我们提出应该同时关注优化目标和优化方式,结合重放逼近联合目标和梯度投影优化方法,以减轻稳定性差距、增加学习效率和改善最终学习结果。
Nov, 2023
本文提出了一种应对连续学习(CL)中灾难性遗忘问题的方法,即类梯度投影(CGP)。通过利用已有类别的梯度子空间,将梯度更新投影到该子空间来减少其他类别的干扰。进一步通过基础优化和对比学习方法来提高模型处理新任务的能力,实验证明了该方法的有效性。
Nov, 2023
深度表示学习方法在持续学习中面临着有用单元的灾难性遗忘和可塑性损失的困扰。本文介绍了基于效用的扰动梯度下降(UPGD)作为一种新的表示持续学习方法,通过梯度更新和扰动相结合的方式,在保护有用单元免受遗忘的同时,对不太有用的单元施加更大的修改来恢复其可塑性。在具有数百个非静态性和未知任务边界的连续学习问题中,我们证明了现有的许多方法都存在至少一种问题,主要表现为在任务上的准确性下降。相反,UPGD在所有问题上继续提高性能,并超越或与所有方法竞争。最后,通过使用PPO进行扩展的强化学习实验,我们证明了在初始学习后Adam表现出的性能下降,而UPGD通过解决连续学习的两个问题来避免这种下降。
Mar, 2024
该论文介绍了对于连续学习中的收敛性分析,提出了一种适应性方法用于非凸连续学习,该方法调整先前和当前任务的梯度的步长,以达到与 SGD 方法相同的收敛速度,并且在减轻每次迭代的灾难性遗忘项的情况下,改进了连续学习在几个图像分类任务中的性能。
Apr, 2024
参数高效梯度投影(PEGP)是第一个在不同调节范例中数学证明提供抗遗忘机制的统一方法,通过将正交梯度投影引入不同的PET范例中,从而有效抵制PET基础的连续学习中的遗忘现象。
May, 2024
通过随机梯度下降(SGD)在线性回归模型中提供了一般性的理论分析,揭示了任务序列与算法参数之间错综复杂的关系,探讨了连续学习中的灾难性遗忘和算法参数选取对任务学习顺序的影响,通过模拟实验验证了理论分析的结果。
May, 2024