Nov, 2024

重新思考具有类独立转换的类增量语义分割

TL;DR该研究解决了类增量语义分割中如何在学习新类别的同时避免忘记旧类别的难题。提出了一种简单且有效的类独立转换(CIT)方法,使现有语义分割模型的输出转换为类独立的形式,建立了一个累积蒸馏框架,从而确保所有类别信息的公平融合。实验结果表明,在不同数据集上,任务遗忘率非常低,ADE20K任务配置中低于5%,PASCAL VOC 2012数据集中在所有配置中低于1%。