本文研究了在强化学习中应用经验重放缓解神经网络连续学习中所面临的灾难性遗忘问题,并证明了这种方法可以在 Atari 和 DMLab 领域中很好地解决这个问题。
Nov, 2018
该论文探讨了在机器学习系统中,面对一个不断涌现的数据流的情况下,通过回放的方法来控制采样记忆,从而提供全新的方案来解决单通道数据训练面临的挑战,并通过多个标准基准测试,达到了与或超过现有最先进技术的表现。
Aug, 2019
本研究介绍了 Gradient Coreset Replay 作为一种新的 replay-based CL 策略,该策略可有效应对 continual learning 中的 catastrophic forgetting,同时还展示了在离线 / 在线 CL 场景下与现有方法相比取得的显著收益并讨论了基于监督对比损失的可持续学习的收益。
Nov, 2021
本文提出通过增加可学习的随机图来维护和重放以前样本的小型陈情表记忆,来解决非静态分布中可用数据的持续学习问题的方法。在多个基准数据集上的实证结果表明,该模型持续胜过最近提出的基线方法,用于无任务的持续学习。
Jul, 2020
通过对常用的蓄水池采样方法与其他替代人群策略进行比较,本研究旨在解决连续学习中选择最具信息价值样本和确定最优存储样本数量的问题,并提供了相关的详细分析。
Aug, 2023
通过研究回放方法在连续学习中的应用,本文提出了一种评估选择性检索策略的框架,并评估了多种策略的表现,并提出了防止重放重复的策略,探索是否可以通过学习低损失值的新样本来避免回放。
Apr, 2024
使用生物学原理进入机器学习模型,我们开发了一种轻量级神经网络结构,通过突触可塑性机制和神经调制,通过本地错误信号进行在线继续学习,从而改善了传统方法的稳定性和记忆限制,在 Split-MNIST,Split-CIFAR-10 和 Split-CIFAR-100 数据集上表现出更好的在线继续学习性能,并在基于回放的方法上达到最先进的记忆密集型方法的性能水平,进一步通过将关键设计概念整合到其他反向传播的继续学习算法中,显著提高了它们的准确性。
持续学习中对样本的选择策略在深度神经网络中起到关键作用,本研究提出了一种名为 GRASP 的样本选择策略,通过选择最具代表性的样本来更新神经网络,不仅在图像分类任务上表现优秀,还在文本分类任务中取得了良好效果。
该研究提出了一种利用影响函数建立的框架,识别了回放缓冲区的二阶影响,从而提出了新的选择目标,以规范它们,并提出了一种有效的实现方法。在多个连续学习基准测试中进行的实验表明,该方法优于现有的最先进方法。
Apr, 2023
连续联邦学习(CFL)结合了联邦学习(FL)和连续学习(CL),通过在各个客户端设备上进行集中模型学习来处理不会共享数据的问题,同时优化重新播放样本的选择,以提高性能和减少遗忘。
Oct, 2023