大规模持续学习中重放记忆的有效性
本文提出了一种称为 “隐式回放” 的技术,该技术可以在边缘计算和嵌入式设备上有效地训练复杂的神经网络模型,并利用连续学习技术实现了较高的自适应性和自主性。我们的实验表明,结合现有的连续学习技术,隐式回放在复杂视频基准测试方面取得了最先进的性能,并且在智能手机上部署该技术可以实现几乎实时的连续学习。
Dec, 2019
研究了当神经网络被培训在一个时间上变化的数据流时,其面临的 “灾难性遗忘” 问题。本文提出并实验了一种简单的 rehearsal-based 方法,即 Experience Replay,并证明其相对于现有的基于 rehearsal 的方法有了极大的精度提升。
Oct, 2020
本研究提出了一种基于强化经验回放的连续学习方法,通过使用当前训练数据模仿未来经验,以及蒸馏内存缓冲区的过去经验,来提高模型的预测一致性,从而有效保留已获得的知识。实验结果表明,我们的方法在多个图像分类数据集上优于现有方法。
May, 2023
RECALL 是一种重播增强方法,通过自适应规范化和旧任务的策略蒸馏,在新任务上增强普适性和稳定性,从而显著改善持续强化学习中灾难性遗忘的问题。在 Continual World 基准测试中,RECALL 的性能明显优于纯粹的完美记忆重播,与最先进的持续学习方法相比,整体性能相当甚至更好。
Nov, 2023
本文研究通过经验重放的方法,利用 “distribution matching” 算法来防止深度神经网络多任务学习中的严重忘却问题。实验探索了不同体验选择策略的优缺点,结果表明分布匹配算法可以成功避免严重忘却问题,并且在所有测试领域中始终表现最佳。同时我们发现,当部分任务的重要性比其他任务更高时,最大化状态空间覆盖率是有福利的。
Feb, 2018
本研究提出了一种基于经验回放的在线连续学习方法,该方法使用不对称更新规则,使得新类别能够更好地适应先前观察到的类别,并在标准连续学习基准测试中获得显著的性能提升。
Mar, 2022
本篇文章探讨了如何通过回放记忆的方式来解决深度神经网络在连续学习时的 “灾难性遗忘” 问题,并对各种取样策略下回放数据的效率、性能和可伸缩性进行了深入评估,最终提供了一个针对各种数据分布选择回放方法的实用解决方案。
Aug, 2022
通过在 Experience Replay 框架中引入一致性正则化方法,将其作为自监督前提任务,并在各种连续学习场景下进行研究。结果表明,相对严格的一致性约束可以更好地保留以前任务的信息。
Jul, 2022
通过研究回放方法在连续学习中的应用,本文提出了一种评估选择性检索策略的框架,并评估了多种策略的表现,并提出了防止重放重复的策略,探索是否可以通过学习低损失值的新样本来避免回放。
Apr, 2024