连续学习的绝热重演
本文提出一种新的深度学习框架Deep Generative Replay来解决在实现万能人工智能时的一个长期问题:灾难性遗忘。通过引入灵感于灵长类大脑海马体的短期记忆系统,在该框架中包含一个生成模型和一个任务求解模型,并在图像分类任务中进行了相关实验和测试。
May, 2017
本文的主要研究方向是解决人工神经网络在学习新任务时会快速遗忘以前学到的任务而导致无法实现真正的生命周期学习的问题,该文提出了一种新的方法,即基于生成回放的连续学习方法,该方法可以在各种不同的场景下实现优异的性能表现。
Sep, 2018
本文介绍了一种基于回放的持续分类学习方法,称为“条件重放”,该方法通过从以类为条件的分布中进行采样生成样本和标签。作者将条件重放与另一种基于回放的持续学习范式(称为“边际重放”)进行了比较,并在新的和标准的MNIST和FashionMNIST数据集构建的基准测试中展示了这种方法的有效性,并与基于正则化的“弹性权重合并”(EWC)方法进行比较。
Oct, 2018
该论文探讨了在机器学习系统中,面对一个不断涌现的数据流的情况下,通过回放的方法来控制采样记忆,从而提供全新的方案来解决单通道数据训练面临的挑战,并通过多个标准基准测试,达到了与或超过现有最先进技术的表现。
Aug, 2019
本研究提出了一种新的压缩激活重放技术,以中间层激活的重放增强深度模型的正则化效果,它在大规模任务、分裂-CIFAR和分裂-miniImageNet数据集上均有显着效果。
Oct, 2020
本篇文章探讨了如何通过回放记忆的方式来解决深度神经网络在连续学习时的“灾难性遗忘”问题,并对各种取样策略下回放数据的效率、性能和可伸缩性进行了深入评估,最终提供了一个针对各种数据分布选择回放方法的实用解决方案。
Aug, 2022
在严格的条件下,通过使用生成回放、模型大小控制、时态正则化等方法,本研究提出了一种脑启发式的持续学习方法,以解决累积学习中遗忘问题,并在重要基准测试中取得了较好的实验结果。
Oct, 2023
通过研究回放方法在连续学习中的应用,本文提出了一种评估选择性检索策略的框架,并评估了多种策略的表现,并提出了防止重放重复的策略,探索是否可以通过学习低损失值的新样本来避免回放。
Apr, 2024
基于丰富的记忆资源和训练效率的重视,我们引入了一种适应性记忆回放的框架来解决不断学习问题,通过多臂赌博机问题的方法来动态选择训练数据,从而在保持高性能的同时减少了遗忘达10%。
Apr, 2024