对于神经网络中的灾难性遗忘问题和老新类别不均衡问题,本文提出了一种基于生成式特征回放和特征蒸馏的解决方案,可以不使用明显的旧任务样本,在 CIFAR-100 和 ImageNet 等数据集上实现了最先进的结果,存储空间成本低。
Apr, 2020
本文介绍了一种新的增量知识蒸馏策略来解决 Data-Free Class-Incremental Learning(DFCIL)的问题,该策略通过修改交叉熵训练和重要性加权特征蒸馏,提高了 DFCIL 的准确率,并在公共课程增量基准测试中表现出优异的性能。
Jun, 2021
本文提出两种用于类增量学习的新型知识传输技术:无数据生成式回放(DF-GR)和双教师信息蒸馏(DT-ID),并在 CIFAR-100 和 ImageNet 数据集上表现出性能提升。
通过生成式分类方法来实现增量学习,利用变分自编码器进行实现,在多项延续学习基准测试中表现优异。
Apr, 2021
本文提出一种新颖的无数据的联邦类增量学习框架,使用扩散模型生成稳定、高质量的图像,通过设计新的平衡采样器、信息论的基于熵的采样过滤技术以及与基于特征的正则化项整合的知识蒸馏,来减轻灾难性遗忘和改善基于联邦学习的智能模型的准确性。
May, 2024
本文提出采用预训练稳定扩散模型作为增量学习的额外数据源,并证明其可以进一步提高现有最先进的大规模数据集类增量学习方法的性能。
Jun, 2023
本研究提出了一种基于数据回放的少样本类增量学习方法,并研究了使用生成器产生数据以解决存储、回放旧数据的隐私问题的技术,同时提出使用熵正则化来增加不确定性样本的有效性,并通过实验结果证明了该方法的可行性和有效性。
Jul, 2022
提出了一种新型的、无需实际数据的分类增量学习框架,采用数据合成的方式生成虚拟数据大大缓解了灾难性遗忘现象,采用余弦归一化交叉熵损失、边际损失和领域对比损失来优化模型的分类性能,将该方法与现有方法进行比较实验,并在诊断心脏超声图像方面取得了很好的效果。
Jun, 2022
在严格的条件下,通过使用生成回放、模型大小控制、时态正则化等方法,本研究提出了一种脑启发式的持续学习方法,以解决累积学习中遗忘问题,并在重要基准测试中取得了较好的实验结果。
Oct, 2023
本研究提出了一个基于特征空间的生成分类器框架,以解决在线类增量学习中用于避免 softmax 分类器的数量型偏差问题,并通过广泛实验验证了该框架的有效性。
May, 2022