基于正规化流的连续学习伪排练
本文提出一种利用 Generative Adversarial Network 来生成代表先前任务的 item,而实现深度神经网络进行序列分类,解决神经网络在学习新任务时容易遗忘以前任务的问题,该模型取得了更好的性能表现。
Feb, 2018
本文介绍了 5 种减轻神经网络灾难性遗忘的机制(规则化,合成,彩排,双重记忆和稀疏编码)并提供了新的指标和基准来直接比较它们,实验结果表明,这些机制对于实现最佳性能而言是至关重要的,但难以完全解决灾难性遗忘问题。
Aug, 2017
本文的主要研究方向是解决人工神经网络在学习新任务时会快速遗忘以前学到的任务而导致无法实现真正的生命周期学习的问题,该文提出了一种新的方法,即基于生成回放的连续学习方法,该方法可以在各种不同的场景下实现优异的性能表现。
Sep, 2018
提出了一种利用深度生成网络结合图像分类和强化学习领域中的连续学习思想的模型,该模型具有双重记忆系统和伪回放系统,能够在 Atari 2600 游戏中完成顺序学习而不会遗忘前面的任务,并且随着任务数量的增加不需要额外的存储要求,存储原始数据或重新访问过去的任务。
Dec, 2018
近期深度学习模型在图像分类或生成等任务中取得了显著的性能,并经常超越人类的准确性。然而,它们在没有访问先前数据的情况下,学习新任务和更新知识可能会遇到困难,这导致了被称为灾难性遗忘的显著准确性损失。本文综述了关于使用梯度下降作为学习算法的现代深度学习模型中解决灾难性遗忘的最近研究,尽管已提出了多种解决方案,但尚未建立确定性的解决方案或关于评估灾难性遗忘的共识。本文对最近的解决方案进行了全面的评述,提出了一个分类法以组织这些解决方案,并明确了这一领域的研究空白。
Dec, 2023
本篇研究论文围绕序列监督学习中的参数化终身学习系统中的主要挑战 —— 灾难性遗忘和容量饱和进行了研究,并提出了一种基于课程的简单明了的评估标准,用于在不断增加难度的任务上对模型进行训练和测试。研究提出了两个网络模型 Gradient Episodic Memory 和 Net2Net,将它们统一起来,并将其应用于递归神经网络,验证了这种方法在终身学习环境中的适用性。
Nov, 2018
大型语言模型在不断微调的过程中存在灾难性遗忘现象,尤其随着规模的增加,遗忘的严重程度也加剧,然而通过单独解码器模型 BLOOMZ 与编码器 - 解码器模型 mT0 的比较,发现 BLOOMZ 遗忘较少且保留更多知识,还观察到语言模型能够在不断微调中缓解语言偏见,同时通用指令微调有助于减轻大型语言模型在进一步微调过程中的遗忘现象。
Aug, 2023
通过研究不同的训练规则,如 dropout、学习率衰减和 batch size 等,以形成训练模式,从而扩大任务的局部极小值,在帮助神经网络避免灾难性遗忘方面提供了实用的见解。
Jun, 2020
记忆转换器是应对神经网络在连续学习中面临的灾难性遗忘挑战的一种方法,通过引入混合适配器和基于生成模型的路由机制来减轻这个问题,实现了各种视觉连续学习任务的最新性能和出色的参数效率。
Apr, 2024