图像标签语义分割的增量学习
本研究旨在解决深度学习架构在面临新增任务时由于灾难性遗忘导致性能下降的问题,提出了一种知识蒸馏方法来保留以前学习过的类别信息,并同时学习新类别,本文在Pascal VOC2012数据集上进行了实验验证其有效性。
Jul, 2019
本文探讨了深度架构在更新模型上的遗忘问题和在语义分割中的特殊性,提出了一种基于蒸馏的框架解决语义分割中的背景类语义分布不一致的问题,并引入了一种新的分类器参数初始化策略,最终在Pascal-VOC 2012和ADE20K数据集上显著优于现有的增量学习方法。
Feb, 2020
本文探讨了使用弱监督方法进行语义分割的可行性,提出了一种基于单阶段自我监督学习的网络模型,使用图像级注释训练语义掩码取得了与复杂流水线相竞争的结果,优于早期的单阶段方法。
May, 2020
论文提出一个新框架,使用image-level weak labels,引入了category-wise alignment来实现domain adaptation中feature alignment和pseudo-labeling的相互作用,实验结果表明在UDA和WDA上都有显著的提高。
Jul, 2020
本文提出了一种基于期望最大化(EM)框架的增量学习策略,用于快速适应深度分割模型的新类别,具有更好的效果和稳定性,并应用于PASCAL VOC 2012和ADE20K数据集上进行验证。
Aug, 2021
提出基于增量和弱监督学习的新思想和框架,采用预训练的共同分割和迁移学习的思想,结合记忆复制和粘贴增强的方法,实现从图像层次标签中学习,同时不遗忘旧分类的任务。在 Pascal VOC 和 COCO 数据集上的实验表明了该框架的卓越性能。
Feb, 2023
本文提出一种基于语义关系的弱监督方法,将对象先验从以前学习的类别转移到新类别,从而提高了新类别和旧类别的分割掩模质量,并在一些连续学习任务中验证了该方法的有效性。
May, 2023
Weakly Incremental Learning for Semantic Segmentation (WILSS) addresses the issue of conflicting predictions and catastrophic forgetting by proposing a tendency-driven relationship of mutual exclusivity, allowing for concurrent execution with model parameter updating via a bi-level optimization problem, leading to new benchmarks and paving the way for further research.
Apr, 2024
当前的弱监督增量学习用于语义分割(WILSS)方法仅考虑使用图像级别标签替换像素级注释,而训练图像仍来自精心设计的数据集。在这项工作中,我们认为普遍可用的网络图像也可以用于学习新的类别。为了实现这一目标,首先我们引入了一种策略,使用基于傅里叶变换的域判别器在潜在空间中选择与先前示例相似的网络图像。然后,提出了一种有效的基于标题的排练策略,用于保留先前学习到的类别。据我们所知,这是第一项仅依赖网络图像来学习新概念和保留已学习概念的WILSS工作。实验结果表明,该方法在增量步骤中无需使用手动选择和注释的数据即可达到最先进的性能。
Jul, 2024