通过对常用的蓄水池采样方法与其他替代人群策略进行比较,本研究旨在解决连续学习中选择最具信息价值样本和确定最优存储样本数量的问题,并提供了相关的详细分析。
Aug, 2023
该论文探讨了在机器学习系统中,面对一个不断涌现的数据流的情况下,通过回放的方法来控制采样记忆,从而提供全新的方案来解决单通道数据训练面临的挑战,并通过多个标准基准测试,达到了与或超过现有最先进技术的表现。
Aug, 2019
本篇文章探讨了如何通过回放记忆的方式来解决深度神经网络在连续学习时的 “灾难性遗忘” 问题,并对各种取样策略下回放数据的效率、性能和可伸缩性进行了深入评估,最终提供了一个针对各种数据分布选择回放方法的实用解决方案。
Aug, 2022
本文研究通过经验重放的方法,利用 “distribution matching” 算法来防止深度神经网络多任务学习中的严重忘却问题。实验探索了不同体验选择策略的优缺点,结果表明分布匹配算法可以成功避免严重忘却问题,并且在所有测试领域中始终表现最佳。同时我们发现,当部分任务的重要性比其他任务更高时,最大化状态空间覆盖率是有福利的。
Feb, 2018
本文提出了一种控制遗忘的连续学习方法,通过基于有约束优化的观点来选择回放缓冲区的样本,以减少学习中遗忘的现象,并且与其他基于任务边界的现有方法进行了比较。
Mar, 2019
RECALL 是一种重播增强方法,通过自适应规范化和旧任务的策略蒸馏,在新任务上增强普适性和稳定性,从而显著改善持续强化学习中灾难性遗忘的问题。在 Continual World 基准测试中,RECALL 的性能明显优于纯粹的完美记忆重播,与最先进的持续学习方法相比,整体性能相当甚至更好。
Nov, 2023
本研究提出一种新的方法 —— 变分原型重放,以实现分类任务中的少样本连续学习,避免了灾难性遗忘。该方法通过学习一组可变原型来表示属于同一类的样本嵌入,并将类代表原型分别分开。此外,该方法还通过从以前的任务中重放一个样本来避免灾难性遗忘。相较于最近的连续学习方法,该方法能够在不需要添加新单元的情况下轻松适应更多类的新任务,并且更具有内存效率。
May, 2019
研究使用生成对抗网络和网络抓取数据重现不可用的旧类数据,避免遗忘和背景类的数据分布变化,达到在连续学习中存在不同步骤和背景类分布变化的情况下更好的表现。
Aug, 2021
在这篇论文中,我们介绍了一种名为 TEAL 的新方法,通过将样本存储于内存中,可以显著增强各种经验重播方法在小内存缓冲区上的性能,从而提高了最先进方法 XDER 以及 ER 和 ER-ACE 在多个图像识别基准上的平均准确性,与最终任务中每个类别 1-3 个样本的小内存缓冲区相关。这证实了当内存有限时,优先考虑最典型的数据是最好的策略。
Jun, 2024
本研究提出了一种新的压缩激活重放技术,以中间层激活的重放增强深度模型的正则化效果,它在大规模任务、分裂 - CIFAR 和分裂 - miniImageNet 数据集上均有显着效果。
Oct, 2020