生成式特征重放用于类增量学习
该论文介绍了一种名为 Data-Free Generative Replay (DFGR) 的新方法,其用于实现无数据训练生成器并解决图像分类中的数据不平衡问题,在持续学习的过程中取得了显著的结果。
Jun, 2024
通过使用新的损失函数、简单的方法来解决分类失效和利用生成对抗网络来生成历史数据和选择代表性样本,我们解决了增量分类器学习中的灾难性遗忘问题,并在 CIFAR-100、Flower-102 和 MS-Celeb-1M-Base 数据集上进行了验证,证明了我们方法的有效性,并且生成的数据比真实图像具有更少的隐私问题。
Feb, 2018
该论文提出了一种用于设定特定任务的连续学习方法,通过增加生成预定数据和发展新的自我监督技术,得到了比传统生成回放更好的结果,并以多个数据集进行实验来说明该方法的有效性。
May, 2020
通过使用预训练的文本到图像扩散模型生成未来类别的合成图像并使用它们训练特征提取器,我们提出的方法改进了无典范类增量学习的最新方法,特别是在只包含少量类别的最困难的情况下。此外,我们还表明使用未来类别的合成样本比使用不同类别的真实数据能够实现更高的性能,为增量学习的更好和更低成本的预训练方法铺平了道路。
Apr, 2024
本文的主要研究方向是解决人工神经网络在学习新任务时会快速遗忘以前学到的任务而导致无法实现真正的生命周期学习的问题,该文提出了一种新的方法,即基于生成回放的连续学习方法,该方法可以在各种不同的场景下实现优异的性能表现。
Sep, 2018
在严格的条件下,通过使用生成回放、模型大小控制、时态正则化等方法,本研究提出了一种脑启发式的持续学习方法,以解决累积学习中遗忘问题,并在重要基准测试中取得了较好的实验结果。
Oct, 2023
研究使用生成对抗网络和网络抓取数据重现不可用的旧类数据,避免遗忘和背景类的数据分布变化,达到在连续学习中存在不同步骤和背景类分布变化的情况下更好的表现。
Aug, 2021
本研究提出了一个基于特征空间的生成分类器框架,以解决在线类增量学习中用于避免 softmax 分类器的数量型偏差问题,并通过广泛实验验证了该框架的有效性。
May, 2022
本文介绍了一种新的增量知识蒸馏策略来解决 Data-Free Class-Incremental Learning(DFCIL)的问题,该策略通过修改交叉熵训练和重要性加权特征蒸馏,提高了 DFCIL 的准确率,并在公共课程增量基准测试中表现出优异的性能。
Jun, 2021