该论文介绍了一种名为 Data-Free Generative Replay (DFGR) 的新方法,其用于实现无数据训练生成器并解决图像分类中的数据不平衡问题,在持续学习的过程中取得了显著的结果。
Jun, 2024
本文介绍了一种新的增量知识蒸馏策略来解决 Data-Free Class-Incremental Learning(DFCIL)的问题,该策略通过修改交叉熵训练和重要性加权特征蒸馏,提高了 DFCIL 的准确率,并在公共课程增量基准测试中表现出优异的性能。
Jun, 2021
本文提出一种新颖的无数据的联邦类增量学习框架,使用扩散模型生成稳定、高质量的图像,通过设计新的平衡采样器、信息论的基于熵的采样过滤技术以及与基于特征的正则化项整合的知识蒸馏,来减轻灾难性遗忘和改善基于联邦学习的智能模型的准确性。
May, 2024
本文提出采用预训练稳定扩散模型作为增量学习的额外数据源,并证明其可以进一步提高现有最先进的大规模数据集类增量学习方法的性能。
Jun, 2023
本文提出了一种新的类增量学习方法(VAG),通过将类增量学习视为一个连续标签生成问题,利用预先训练模型的可推广表达来减少灾难性遗忘,并利用词汇表的稀疏性来聚焦生成,同时通过使用标签语义来创建伪重放样本。实验结果表明,VAG 方法的表现优于基线方法。
本文提出了一个因果框架,解释了类增量学习中的灾难性遗忘的原因,并提出了一种新的蒸馏方法,该方法与现有的抗遗忘技术(例如数据回放和特征 / 标签蒸馏)正交。在这个框架下,我们发现特征 / 标签蒸馏虽然存储效率高,但其因果效应与端到端特征学习的优点不相符,而数据回放则能够保留此效应,因此我们建议使用基于 Colliding Effect 的因果蒸馏方法,在不损失回放存储的情况下,实现类增量学习中的遗忘效应的缓解。实验结果表明该方法能够显著提高目前各类增量学习方法的性能。
Mar, 2021
本研究提出了一种基于数据回放的少样本类增量学习方法,并研究了使用生成器产生数据以解决存储、回放旧数据的隐私问题的技术,同时提出使用熵正则化来增加不确定性样本的有效性,并通过实验结果证明了该方法的可行性和有效性。
Jul, 2022
对于神经网络中的灾难性遗忘问题和老新类别不均衡问题,本文提出了一种基于生成式特征回放和特征蒸馏的解决方案,可以不使用明显的旧任务样本,在 CIFAR-100 和 ImageNet 等数据集上实现了最先进的结果,存储空间成本低。
Apr, 2020
本文提出了一种基于关系指导的表征学习方法,用于解决数据自由的类增量学习(DFCIL)中出现的遗忘问题,并展示了其在三个数据集上实现了新的最优性能。
Mar, 2022
本研究提出了一种名为稳定扩散深度生成重放(SDDGR)的新方法,它利用基于扩散的生成模型和预训练的文本到扩散网络生成逼真多样的合成图像,通过迭代优化策略生成高质量包含旧类别的图像,并采用 L2 知识蒸馏技术提高合成图像中先前知识的保存,并在新任务图像中利用伪标记技术对旧对象进行预测,防止其被误分类为背景元素。实验结果表明,SDDGR 在各种类别增量目标检测场景中显著优于现有算法,达到了最新的技术水平。源代码将向公众提供。
Feb, 2024