Jan, 2025

持续知识保护分解的少样本持续学习

TL;DR本文针对少样本类增量学习中存在的灾难性遗忘问题,提出了持续知识保护分解框架(CKPD-FSCIL)。该框架通过将模型权重分解为知识敏感组件和冗余容量组件,实现了在适应新能力的同时,保护已有知识的有效性。实验结果表明,CKPD-FSCIL在多个基准测试中表现优于现有主流方法。