关键词incremental class learning
搜索结果 - 5
- 梯度相关子空间学习对抗灾难性遗忘
通过引入梯度相关子空间学习(GCSL)技术,本文介绍了一种减少增量类学习中灾难性遗忘的新方法,该方法检测受以前任务影响最小的权重的子空间,并将权重投影到该子空间进行新任务的训练,可适用于给定网络架构的一个或多个层,而且该子空间的大小可以在不 - 克服连续学习中的稳定性差距
通过经验重放,研究深度神经网络在持续学习中稳定性差的问题,发现一种能极大减少性能下降的方法,从而实现更高效率的学习。
- CVPR当今的连续学习算法有多高效?
本文研究了增量类学习的最新方法,并指出很多算法在计算、存储和内存方面效率极低,有些甚至比从头开始训练的方法更费时,作者认为在实际应用中,不能忽视这些算法的资源消耗,持续学习不仅仅只是为了减轻灾难性遗忘。
- IJCAI封闭循环记忆 GAN 用于连续学习
本文提出了一种基于累计的闭环记忆重放生成对抗网络的方案,并引入了外部正则化进行最大样本多样性的小型内存单元。实验结果表明,在使用动态内存单元的条件下,该方案在处理硬任务学习方面具有很高的性能增长。
- ICLRFearNet: 增量学习的类脑模型
本论文提出了 FearNet 作为一种新的增量类别学习方法,FearNet 是一种不需要存储先前样本的生成模型,使用神经网络实现一个双重记忆系统,通过处于不同阶段的记忆体以及受哺乳动物海马和额叶前皮层影响的新和长时记忆的网络之间转换以提高记