基于残差建模的背景自适应用于无样本示范类增量语义分割
本文探讨了深度架构在更新模型上的遗忘问题和在语义分割中的特殊性,提出了一种基于蒸馏的框架解决语义分割中的背景类语义分布不一致的问题,并引入了一种新的分类器参数初始化策略,最终在Pascal-VOC 2012和ADE20K数据集上显著优于现有的增量学习方法。
Feb, 2020
本文提出了一种新的方法SSUL-M方法,该方法结合了针对语义分割的技术并首次使用了微小样本存储器来解决类逐步学习中经常出现的语义漂移和多标签预测问题,实验证明其比其他最新技术基线表现更优秀。
Jun, 2021
本文提出了一种名为PLOP的方法,使用了多尺度池化蒸馏技术,在特征级别上保留了长程和短程空间关系,并设计了一种基于熵的伪标签方法来处理背景变化和避免旧类的灾难性遗忘,并引入了一种新的排练方法,特别适用于分割。在现有的连续语境场景以及新的提出的具有挑战性的基准测试中,我们的方法显着优于现有的最先进方法。
Jun, 2021
本文提出了一种高效利用多级特征融合Class Incremental Semantic Segmentation的方法,采用特征金字塔和DEFY模块等技术,使得在PASCAL VOC 2012和ADE20K数据集上的平均性能指标都得以显著提升。
Jun, 2023
本研究提出了一种Gradient-Semantic Compensation (GSC)模型,从梯度和语义的角度克服了增量语义分割中的灾难性遗忘和背景转移问题。通过重新加权梯度反向传播来平衡先前训练类别的遗忘速度,同时提出了软锐语义关系蒸馏来减轻语义方面的灾难性遗忘,并使用原型伪重新标签方法提供强大的语义引导以减轻背景转移问题。在Pascal VOC 2012、ADE20K和Cityscapes三个公共数据集上的大量实验证明了提出的GSC模型的有效性。
Jul, 2023
本文提出了一种新的方法Inherit with Distillation and Evolve with Contrast (IDEC),它通过Dense Knowledge Distillation on all Aspects (DADA)和Asymmetric Region-wise Contrastive Learning (ARCL)模块解决了类增量语义分割中遇到的灾难性遗忘问题和语义漂移问题,并在多个CISS任务中展现出卓越的性能。
Sep, 2023
本文针对常用的连续增量语义分割(Continuous Incremental Semantic Segmentation,CISS)场景中的不切实际之处进行了研究,提出了一个实用的场景,即分割(partitioned),该场景能够解决CISS中的偏差问题,并通过引入一种名为MiB-AugM的基于记忆机制的基准模型,实现了多任务学习与学习新类的最新结果。
May, 2024
提出了Cs2K指导进行增量语义分割,通过类别特定知识和类别共享知识实现模型的性能权衡,其中类别特定知识方面采用了原型引导的伪标签和类别适应,类别共享知识方面采用了基于权重重要性对新旧模型权重进行整合的选择性巩固。
Jul, 2024
提出了一种适用于类增量语义分割(CISS)的背景-类分离框架,通过选择性伪标记和自适应特征蒸馏来提取可靠的过去知识,并通过新颖的正交目标和标签引导的输出蒸馏来鼓励背景与新类的分离。这些提出的方法的最新结果验证了其有效性。
Jul, 2024
该研究解决了类增量语义分割中如何在学习新类别的同时避免忘记旧类别的难题。提出了一种简单且有效的类独立转换(CIT)方法,使现有语义分割模型的输出转换为类独立的形式,建立了一个累积蒸馏框架,从而确保所有类别信息的公平融合。实验结果表明,在不同数据集上,任务遗忘率非常低,ADE20K任务配置中低于5%,PASCAL VOC 2012数据集中在所有配置中低于1%。
Nov, 2024