通过生成回放自我恢复记忆
本文提出一种新的深度学习框架 Deep Generative Replay 来解决在实现万能人工智能时的一个长期问题:灾难性遗忘。通过引入灵感于灵长类大脑海马体的短期记忆系统,在该框架中包含一个生成模型和一个任务求解模型,并在图像分类任务中进行了相关实验和测试。
May, 2017
本文的主要研究方向是解决人工神经网络在学习新任务时会快速遗忘以前学到的任务而导致无法实现真正的生命周期学习的问题,该文提出了一种新的方法,即基于生成回放的连续学习方法,该方法可以在各种不同的场景下实现优异的性能表现。
Sep, 2018
本篇文章提出了一种新的方法来缓解训练神经网络时非稳态带来的行为遗忘现象,利用模型内部的内隐记忆来进行实时样本生成,并侧重于优化实际的训练数据批次,从而高效和可扩展的进行训练。作者探讨了该方法与大脑模型的对应之处,并发现这种方法的高效特性是自然而然地产生的。
Jun, 2020
通过利用编码器 - 解码器 Transformers 的生成能力,我们提出了一种新的方法来持续学习神经机器翻译系统,以有效地从包含不同语言的经验流中学习,通过使用模型作为生成器填充重播记忆来对抗灾难性遗忘,而无需明确记忆训练数据。
Mar, 2024
本文研究表明,相较于静态网络,动态生长的神经网络在增量学习场景中表现更好,无监督学习使得训练更具挑战性,同时增加了研究的现实性,同时结构可塑性是防止非静态环境中的灾难性遗忘的有效方法。
Nov, 2018
本研究提出了一种双重记忆架构模拟人类大脑的海马体和新皮层系统,通过经验的生成重放的记忆巩固,避免神经网络在顺序任务中的灾难性遗忘现象,进而实现连续学习并展示出哺乳类记忆的很多特征。
Oct, 2017
RECALL 是一种重播增强方法,通过自适应规范化和旧任务的策略蒸馏,在新任务上增强普适性和稳定性,从而显著改善持续强化学习中灾难性遗忘的问题。在 Continual World 基准测试中,RECALL 的性能明显优于纯粹的完美记忆重播,与最先进的持续学习方法相比,整体性能相当甚至更好。
Nov, 2023
在这项工作中,通过使用基于循环神经网络的强化学习模型,我们在任务优化范式下发现了自然出现的回放,它模拟了海马体和前额叶皮质的互联以及感觉皮质输入,而回放在任务表现上能很好地匹配动物实验数据,同时也成功地再现了局部和非局部回放,这与人类实验数据相吻合,这为我们理解回放背后的机制提供了一种新途径。
Feb, 2024
在严格的条件下,通过使用生成回放、模型大小控制、时态正则化等方法,本研究提出了一种脑启发式的持续学习方法,以解决累积学习中遗忘问题,并在重要基准测试中取得了较好的实验结果。
Oct, 2023
我们研究了连续离线强化学习,这是一种实用的范例,用于前向转移和减轻灾难性遗忘,以应对顺序离线任务。我们提出了一种双生成重播框架,通过同时重播生成的伪数据来保留先前的知识。我们将连续学习策略解耦为基于扩散的生成行为模型和多头行动评估模型,使策略能够继承分布表达能力,以包含逐步丰富的多样行为范围。通过训练一个任务条件的扩散模型来模拟过去任务的状态分布,生成的状态与行为生成器对应的回应配对,以高保真度回放样本来表示旧任务。最后,通过将伪样本与新任务的真样本交错,不断更新状态和行为生成器,以逐步多样化的行为建模,并通过行为克隆对多头评论者进行正则化,以减轻遗忘。实验证明,我们的方法在前向转移方面取得了更好的效果并且由于其高保真度的样本重放,与使用以前的真实数据近似的结果。
Apr, 2024