图像分类的内存高效类增量学习
本文提出了一种增量学习的方法,该方法保留以前学习类别的训练图像的特征描述符,而不是图像本身,采用了比大多数现有方法更少的低维特征嵌入,通过多层感知器学习特征适应以实现分类器旧类别和新类别的联合优化,并取得了与保留图像相比更低的内存占用和最先进的分类准确率。
Apr, 2020
在大规模的ImageNet数据集上,我们探索了一种从已经训练好的模型中增量学习的方法,通过二阶段训练方案,融合与增强,我们的方法比现有的方法在准确率上提高了10%。
Apr, 2022
本文主要讨论了在有限内存情况下如何处理历史数据和新类别的增加,并提出了一种名为MEMO的基于共享泛化表示的基准,在保持代表性示例的同时,具有高效的内存管理和提取多样性特征的能力。
May, 2022
本文提出了一种基于压缩样本的识别模型的方法,通过动态压缩样本(通过class activation maps生成0-1遮罩屏蔽非鉴别性的像素点)并存入内存来实现无需进行手动注释的自适应压缩样本,通过在高分辨率的 CIL benchmarks(包括 Food-101, ImageNet-100,和 ImageNet-1000)上进行了实验,结果显示,使用 CIM 压缩样本可以实现新的 CIL 精度的全新的最高水平。
Mar, 2023
本文提出了名为RAMF的非示例类增量学习方法,该方法包含随机辅助类增强和混合特征。通过对输入应用三种不同的增强方法,生成增强样本和额外的类标签,从而扩展数据和标签空间,减少特征空间变化并提高模型泛化能力。通过混合新旧特征,旧知识可以保留而不增加计算复杂度,在三个测试中,结果显示该方法优于其他方法并可与高性能重放方法相媲美。
Apr, 2023
我们提出了一种新的无样本增量学习方法,通过采用多分布匹配扩散模型来统一训练数据的质量,弥合不同域之间的差距,并通过选择性合成图像增强来扩展训练数据的分布,从而增强模型的可塑性和最终组件的性能,在增量训练期间提升模型的稳定性,实验证明这种方法优于之前的无样本增量学习方法并达到了最先进的性能。
Mar, 2024
FeTrIL框架的研究扩展至新颖的实验领域,通过对多个具有挑战性的数据集和增量设置进行各种过采样技术和动态优化策略的实证研究来研究其有效性,特别是探索过采样对特征可用性的影响以及不同的优化方法对增量学习结果的影响。通过在CIFAR100、Tiny-ImageNet和ImageNet-Subset上进行全面实验,FeTrIL在新旧类别的准确性平衡方面表现出卓越性能,相对于其他十种方法,其优越性能得到了肯定。研究揭示了过采样和优化对于类别增量学习的微妙影响,为特征空间操作在课堂增量学习中的更精细理解做出了贡献。本文的扩展研究为更适应和高效的EFCIL方法铺平了道路,承诺在不需要样本的情况下显著改善处理灾难性遗忘。
Mar, 2024
通过使用简单的递增表示(IR)框架,使用数据增强覆盖合适的特征空间并使用单一的L2空间维护损失来防止模型遗忘,我们提出了一个用于非示例类增量学习(efCIL)的方法,实现在合并新类知识的同时保留先前学到的信息,而无需存储任何旧类示例(样本)。在CIFAR100、TinyImageNet和ImageNetSubset数据集上广泛实验证明,我们提出的IR方法在性能上与其他方法相媲美,同时显著防止模型遗忘。
Mar, 2024
本研究针对深度神经网络在连续数据流学习中遭遇的灾难性遗忘问题,提出了一种新的非样本类增量学习方法。通过用合成的回顾特征替代类的原型,结合基于相似性特征补偿机制,显著提升了对旧类决策边界的保持能力。实验结果表明,该方法在多个数据集上实现了最先进的性能,并提高了非样本类增量学习的效率。
Nov, 2024