基于显著性导向的隐藏联想回放用于持续学习
RECALL 是一种重播增强方法,通过自适应规范化和旧任务的策略蒸馏,在新任务上增强普适性和稳定性,从而显著改善持续强化学习中灾难性遗忘的问题。在 Continual World 基准测试中,RECALL 的性能明显优于纯粹的完美记忆重播,与最先进的持续学习方法相比,整体性能相当甚至更好。
Nov, 2023
基于丰富的记忆资源和训练效率的重视,我们引入了一种适应性记忆回放的框架来解决不断学习问题,通过多臂赌博机问题的方法来动态选择训练数据,从而在保持高性能的同时减少了遗忘达 10%。
Apr, 2024
研究使用生成对抗网络和网络抓取数据重现不可用的旧类数据,避免遗忘和背景类的数据分布变化,达到在连续学习中存在不同步骤和背景类分布变化的情况下更好的表现。
Aug, 2021
提出了一种神经启发的连续学习(CL)方法(SHARP),该方法利用稀疏动态连接和激活重播来解决现有的重播方法忽略生物重播的两个关键方面的问题。 实验证明,SHARP 在类增量学习方面优于现有的重播方法。
May, 2023
本研究提出了一种基于强化经验回放的连续学习方法,通过使用当前训练数据模仿未来经验,以及蒸馏内存缓冲区的过去经验,来提高模型的预测一致性,从而有效保留已获得的知识。实验结果表明,我们的方法在多个图像分类数据集上优于现有方法。
May, 2023
研究了半监督连续学习 (SSCL) 模型,使用伪标记、一致性正则化、知识蒸馏和外域检测策略,能够在 SSCL CIFAR-100 实验中最多提高 54.5% 平均任务准确性并减少存储图像数量。
Jan, 2021
该论文探讨了在机器学习系统中,面对一个不断涌现的数据流的情况下,通过回放的方法来控制采样记忆,从而提供全新的方案来解决单通道数据训练面临的挑战,并通过多个标准基准测试,达到了与或超过现有最先进技术的表现。
Aug, 2019
本文介绍了一种新颖的观点,以显著减轻连续学习中的灾难性遗忘,强调模型保持现有知识和吸收新信息的能力。我们提出了 COgnitive REplay (CORE) 的方法,包括自适应数量分配和质量导向数据选择这两个关键策略。该方法在 split-CIFAR10 上的平均准确率为 37.95%,超过最佳基准方法 6.52%。此外,它还将最差表现任务的准确率相比顶级基准提高了 6.30%。
Feb, 2024
本文提出了一种称为 “隐式回放” 的技术,该技术可以在边缘计算和嵌入式设备上有效地训练复杂的神经网络模型,并利用连续学习技术实现了较高的自适应性和自主性。我们的实验表明,结合现有的连续学习技术,隐式回放在复杂视频基准测试方面取得了最先进的性能,并且在智能手机上部署该技术可以实现几乎实时的连续学习。
Dec, 2019