关键词class-incremental continual learning
搜索结果 - 5
- 一阶段基于提示的持续学习
通过引入一种单阶段的 PCL 框架,将中间层的标记嵌入作为提示查询,消除了查询 ViT 的额外前馈阶段,从而在训练和推理中将计算成本降低了约 50%,准确度仅下降不到 1%。此外,引入了查询池正则化损失(QR 损失),用于改进提示查询和提示 - 在分类增量连续学习中通过对抗训练提高准确率和鲁棒性
本文介绍了一种对抗攻击深度学习模型的新防御方法,即 External Adversarial Training (EAT),它可以有效地解决在 class-incremental continual learning (CICL) 中出现的 - AAAI利用旧知识持续学习医学图像中的新类别
本文提出了一种两个主要组成部分的框架来避免类别增量持续学习中的灾难性遗忘,包括动态架构和训练过程,结果表明这种解决方案在医疗数据集上能够实现比现有技术水平更好的类别准确性和遗忘能力。
- eXtended DER-verse 中的类增量继续学习
本研究针对我们先前提出的 Dark Experience Replay(DER)方案的缺点进行了评估和克服,提出了一种称为 eXtended-DER(X-DER)的改进方案,它能够在连续学习设置中拓展我们的模型,获得了显着的提高。
- CVPR监督对比回放:在线类增量持续学习中重新审视最近类别均值分类器
提出使用最近中心点法(NCM)替代在在线学习中普遍使用的 Softmax 分类器以解决软最大值分类器导致的最近偏差问题,同时引入有监督对比重播(SCR)以更有效地利用 NCM 分类器,最终实验表明该方法大幅度减少了严重遗忘情况,并在各种数据