通过辅助网络在连续学习中实现更好的稳定性 - 可塑性平衡
这篇论文是第一篇广泛的综述文章,阐述了人工神经网络、持续学习和自动机器学习之间的交叉领域,并提出了各种方法以促进完全自动化和神经网络的终身可塑性。
Jun, 2022
本研究提出了一种名为 MuFAN 的在线连续学习框架,利用不同级别的预训练网络中提取的更丰富的上下文编码,并引入了一种新颖的基于结构的蒸馏损失和稳定性 - 可塑性标准化模块,用于同时保持高可塑性和稳定性。MuFAN 在多个数据集上优于其他现有的连续学习方法。
Feb, 2023
在连续流数据的情景中,深度神经网络在解决多个分类任务时,面临着保持旧任务知识同时学习新任务的挑战。本研究分析了当前度量方法的局限性,发现了新任务引起的遗忘问题,并提出了一套考虑任务难度增加的新度量方法,实验证明这些度量方法能够提供有关模型在连续学习环境中平衡稳定性和可塑性的新见解。
Sep, 2023
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了 11 种持续学习方法和 4 种基线的方法的强弱和影响。
Sep, 2019
本文提出了一种新的连续学习方法 Advanced Null Space (AdNS),通过使用低秩逼近获取新的零空间并将梯度投影到零空间中,从而实现平衡稳定性和可塑性,解决了连续学习中的稳定性 - 可塑性困境,并提出了一种简单而有效的方法 intra-task distillation 来提高当前任务的性能。实验结果表明,与最先进的连续学习方法相比,该方法可以实现更好的性能。
Jul, 2022
该论文提出了一种新的 Continual Learning 算法,结合多样化和不相关的输入流,以解决当前任务,从而有助于学习下一个任务,并在常见的图像分类基准测试中表现出超过现有最先进模型的表现。
Jun, 2022
本文研究了深度学习系统在持续学习环境下的表现,发现其容易出现失去可塑性现象,影响其对新数据的适应能力,但通过 L2 正则化和重启动某些不常用单元的连续反向传播算法,可以缓解和避免这种现象。
Jun, 2023
在线连续学习是解决从连续数据流中学习不断出现的新分类任务的问题,本文提出了 Collaborative Continual Learning (CCL) 和 Distillation Chain (DC) 两种方法,通过合作学习和知识蒸馏,大幅提高了模型的学习能力和性能。
Dec, 2023
通过建立一个稳定性与可塑性均衡、具有多个学习模块的学习系统,我们提出了一种通用方法,可以适度减弱旧记忆在参数分布中的影响,以提高学习可塑性,并通过协调多学习者架构确保解决方案的兼容性。经过大量的理论和实证验证,我们的方法不仅明显提高了持续学习的性能,尤其是在任务增量设置中超过了突触正则化方法,还可能推进神经适应机制的理解,成为推动人工智能和生物智能共同进步的新范例。
Aug, 2023
该论文介绍了对于连续学习中的收敛性分析,提出了一种适应性方法用于非凸连续学习,该方法调整先前和当前任务的梯度的步长,以达到与 SGD 方法相同的收敛速度,并且在减轻每次迭代的灾难性遗忘项的情况下,改进了连续学习在几个图像分类任务中的性能。
Apr, 2024