- 以情感为中心的模型缓解面部表情识别中的灾难性遗忘
生成对抗网络生成的图像以及假排练方法能够增强卷积神经网络在情绪识别中的性能,保留之前学习到的知识,同时提高对目标数据集和源数据集的训练。
- 智慧医疗领域增量适应的过去无关生成式回放
我们提出了一种名为 PAGE 的领域递增自适应策略,利用过往信息实现生成式回放来帮助智能医疗中的疾病检测,同时保护数据隐私。PAGE 在适应新领域时利用真实数据和当前模型生成保留先前领域学习知识的合成数据,并将其与新真实数据一起进行训练,既 - 指导:基于扩散模型的增量学习指南
引入了 GUIDE,一种新颖的连续学习方法,通过指导扩散模型在遗忘风险的样本上进行重复训练来解决灾难性遗忘的问题。该方法通过将扩散模型与分类器指导技术相结合,产生具有针对性的训练样本,从而减少了灾难性遗忘和充分利用了生成重放在连续学习中的能 - CVPRSDDGR: 稳定的基于扩散的深度生成回放用于类别增量目标检测
本研究提出了一种名为稳定扩散深度生成重放(SDDGR)的新方法,它利用基于扩散的生成模型和预训练的文本到扩散网络生成逼真多样的合成图像,通过迭代优化策略生成高质量包含旧类别的图像,并采用 L2 知识蒸馏技术提高合成图像中先前知识的保存,并在 - 生成蒸馏下的扩散模型的持续学习
借助生成性重放的扩散模型的生成蒸馏方法,可以显着提升持续学习性能,只需适度增加计算成本。
- 回顾过去:持续学习中生成回放的知识更好保留
改进了生成回放在连续学习环境中的表现,提出了三种修改方法以克服当前方法对于复杂数据生成的不足,并通过实验证明了方法在各种场景下的优越性能。
- DiffusePast: 基于扩散的生成回放技术用于类别增量语义分割
DiffusePast 是一个新颖的框架,通过基于扩散的生成回放模块生成具有更可靠蒙版的语义精确图像,以解决 Class Incremental Semantic Segmentation 中对传统分割任务的增量学习并处理先前提到的灾难性遗 - 通过生成回放自我恢复记忆
该研究介绍了一种新的神经网络架构,结合了生成回放和自适应神经元,可以自主地重新组织记忆,提高神经网络在持续学习过程中性能和记忆效率。
- EMNLPPrompt Conditioned VAE: 加强任务导向对话生命周期学习中的生成回放
本研究提出了一种基于条件 VAE 的新型 PCLL 方法,通过加入任务统计信息来增强生成式回放并引导伪样本生成,从而改善 LL 模型训练,实验证明相比其他竞争基线方法,PCLL 在建立 LL 模型方面表现显着优异。
- 基于模型无关生成回放的终身强化学习:以星际争霸 2 为例
本研究研究了三种 LRL 模型的生成式重演(GR)机制,提高了迁移学习等量化指标以及解决了忘却问题。通过实验结果表明,该机制在深度 RL 代理的潜藏向量空间内防止特征到行为映射发生漂移,缩小了训练样本数量,具有较高的实验价值。
- AAAI使用动态扩展图模型的终身生成建模
本文研究了 VAEs 在学习多个任务时存在的知识遗忘问题,提出了使用 GR 和 ENA 方法的联合模型 DEGM。通过理论分析,我们发现 DEGM 得到了最佳表现,同时减少了所需参数的数量。
- CVPR无数据生成回放的双教师班级增量学习
本文提出两种用于类增量学习的新型知识传输技术:无数据生成式回放(DF-GR)和双教师信息蒸馏(DT-ID),并在 CIFAR-100 和 ImageNet 数据集上表现出性能提升。
- 基于生成回放的动态 VAE 模型实现持续零样本学习
本文提出了一种新的继续零样本学习模型 (DVGR-CZSL),通过生成式回放来防止灾难性遗忘,该模型与先前学习过的类一起更新。实验证明,这种混合模型在几个数据集中优于基线,能够有效地进行任务顺序学习,并且在零样本学习中具有优越性。
- 基于正交权重修改的生成特征重放用于持续学习
该论文提出了一种用于设定特定任务的连续学习方法,通过增加生成预定数据和发展新的自我监督技术,得到了比传统生成回放更好的结果,并以多个数据集进行实验来说明该方法的有效性。
- S-TRIGGER: 自触发生成重放的连续状态表示学习
在不断学习的情境下,我们提出了一种名为 S-TRIGGER 的新的方法,通过使用生成的样本来维持过去的知识并使用生成的样本的状态表示,在避免灾难性遗忘的情况下,迅速高效地进行强化学习,同时避免了使用过去数据和有限的系统大小问题。
- 从持续学习的角度看生成模型
本文比较评估了不同生成模型在连续学习时的适用性,主要研究了不同策略下生成模型的记忆及生成质量表现,结论为原始 GAN 模型表现最优,而 generative replay 策略最优。
- 使用生成回放进行强化学习的连续状态表示学习
本研究针对建立连续学习中的状态表示模型问题展开讨论,为保留过去知识的同时高效压缩感知状态信息,我们提出了使用变分自编码器(Variational Auto-Encoders)作为状态表示,并基于生成样本的生成回放(Generative Re - 生成回放与反馈连接作为连续学习的通用策略
本文的主要研究方向是解决人工神经网络在学习新任务时会快速遗忘以前学到的任务而导致无法实现真正的生命周期学习的问题,该文提出了一种新的方法,即基于生成回放的连续学习方法,该方法可以在各种不同的场景下实现优异的性能表现。
- 深度生成式双重记忆网络用于持续学习
本研究提出了一种双重记忆架构模拟人类大脑的海马体和新皮层系统,通过经验的生成重放的记忆巩固,避免神经网络在顺序任务中的灾难性遗忘现象,进而实现连续学习并展示出哺乳类记忆的很多特征。
- 在线对比散度与生成式回放:不需存储数据的经验重播
本研究提出了在线对比散度与生成回放 (OCD_GR) 方法,利用受限玻尔兹曼机 (RBM) 的生成能力来解决经验重放 (ER) 所带来的存储复杂度问题。在 9 个真实数据集上的实验结果显示,在 64.28% 的测试中,OCD_GR 方法表现