本文提出了一种控制遗忘的连续学习方法,通过基于有约束优化的观点来选择回放缓冲区的样本,以减少学习中遗忘的现象,并且与其他基于任务边界的现有方法进行了比较。
Mar, 2019
通过研究回放方法在连续学习中的应用,本文提出了一种评估选择性检索策略的框架,并评估了多种策略的表现,并提出了防止重放重复的策略,探索是否可以通过学习低损失值的新样本来避免回放。
Apr, 2024
该论文探讨了在机器学习系统中,面对一个不断涌现的数据流的情况下,通过回放的方法来控制采样记忆,从而提供全新的方案来解决单通道数据训练面临的挑战,并通过多个标准基准测试,达到了与或超过现有最先进技术的表现。
Aug, 2019
通过对常用的蓄水池采样方法与其他替代人群策略进行比较,本研究旨在解决连续学习中选择最具信息价值样本和确定最优存储样本数量的问题,并提供了相关的详细分析。
Aug, 2023
本文是关于使用信息论从数据流中选择回放内存的在线选择问题的研究,提出了 Surprise 和 Learnability 准则,并使用贝叶斯模型高效地计算这些准则,进一步引入信息熵随机采样器(InfoRS)来选择高信息熵的点进行采样。在连续学习基准测试中,验证了它的效率和功效。
Apr, 2022
通过 Meta-Experience Replay 算法,在经验回放的基础上进行基于元学习的优化,实现了对未来渐变更少的干扰和更多的知识迁移。在多个领域的实验中,该方法优于目前的基准算法。
Oct, 2018
本文探讨了不断学习中,使用 rehearsal 方法的优点和局限,通过三个基准测试提供了实证证据,指出使用该方法的模型在任务完成后仍然处于较低的损失区域,但有过拟合采样数据的风险从而降低模型的泛化能力,这是一项重要的持续学习研究。
Apr, 2021
本文研究了在强化学习中应用经验重放缓解神经网络连续学习中所面临的灾难性遗忘问题,并证明了这种方法可以在 Atari 和 DMLab 领域中很好地解决这个问题。
Nov, 2018
本文研究通过经验重放的方法,利用 “distribution matching” 算法来防止深度神经网络多任务学习中的严重忘却问题。实验探索了不同体验选择策略的优缺点,结果表明分布匹配算法可以成功避免严重忘却问题,并且在所有测试领域中始终表现最佳。同时我们发现,当部分任务的重要性比其他任务更高时,最大化状态空间覆盖率是有福利的。
Feb, 2018
本文研究了 Continual Learning 中基于正则化的方法,通过理论推理和实验说明了这些方法在 class-incremental 场景下不能有效学习区分不同任务的类别,在多任务强化学习或用于 Continual Learning 的预训练模型中也存在重要后果。作者认为理解正则化策略的缺陷将有助于更有效地利用它们。
Dec, 2019