一种用于在线增量学习语义分割的 EM 框架
本研究旨在解决深度学习架构在面临新增任务时由于灾难性遗忘导致性能下降的问题,提出了一种知识蒸馏方法来保留以前学习过的类别信息,并同时学习新类别,本文在Pascal VOC2012数据集上进行了实验验证其有效性。
Jul, 2019
本文着重介绍了如何应用知识蒸馏技术来处理增量学习的语义分割问题。经过在Pascal VOC2012和MSRC-v2数据集上的实验,该方法在多个增量学习场景中表现出显著的有效性。
Nov, 2019
本文探讨了深度架构在更新模型上的遗忘问题和在语义分割中的特殊性,提出了一种基于蒸馏的框架解决语义分割中的背景类语义分布不一致的问题,并引入了一种新的分类器参数初始化策略,最终在Pascal-VOC 2012和ADE20K数据集上显著优于现有的增量学习方法。
Feb, 2020
本文提出了一种对语义分割算法进行增量式学习的技术,该技术可以在不使用模型最初训练的标记数据的情况下,进行类别的增量式学习,以便于在开发需要新类的自治驾驶系统时使用。我们的实验结果表明,我们提出的技术可以超过同类算法,并有助于提高各类别的性能。
May, 2020
提出了一种基于自监督学习和伪标签的自训练方法,用于减轻深度神经网络在逐步学习新类任务时出现的灾难性遗忘问题,该方法不仅考虑了历史任务的知识,还利用了额外的数据提高了语义分割的性能。
Dec, 2020
该论文提出了一种新的语义分割框架,采用弱增量学习,使用辅助分类器和软标签更新模型,从图像级别标签中学习新类别的分割,可有效减少由像素逐像素标注带来的时间和经济成本。
Dec, 2021
提出基于增量和弱监督学习的新思想和框架,采用预训练的共同分割和迁移学习的思想,结合记忆复制和粘贴增强的方法,实现从图像层次标签中学习,同时不遗忘旧分类的任务。在 Pascal VOC 和 COCO 数据集上的实验表明了该框架的卓越性能。
Feb, 2023
Weakly Incremental Learning for Semantic Segmentation (WILSS) addresses the issue of conflicting predictions and catastrophic forgetting by proposing a tendency-driven relationship of mutual exclusivity, allowing for concurrent execution with model parameter updating via a bi-level optimization problem, leading to new benchmarks and paving the way for further research.
Apr, 2024
当前的弱监督增量学习用于语义分割(WILSS)方法仅考虑使用图像级别标签替换像素级注释,而训练图像仍来自精心设计的数据集。在这项工作中,我们认为普遍可用的网络图像也可以用于学习新的类别。为了实现这一目标,首先我们引入了一种策略,使用基于傅里叶变换的域判别器在潜在空间中选择与先前示例相似的网络图像。然后,提出了一种有效的基于标题的排练策略,用于保留先前学习到的类别。据我们所知,这是第一项仅依赖网络图像来学习新概念和保留已学习概念的WILSS工作。实验结果表明,该方法在增量步骤中无需使用手动选择和注释的数据即可达到最先进的性能。
Jul, 2024
该研究解决了类增量语义分割中如何在学习新类别的同时避免忘记旧类别的难题。提出了一种简单且有效的类独立转换(CIT)方法,使现有语义分割模型的输出转换为类独立的形式,建立了一个累积蒸馏框架,从而确保所有类别信息的公平融合。实验结果表明,在不同数据集上,任务遗忘率非常低,ADE20K任务配置中低于5%,PASCAL VOC 2012数据集中在所有配置中低于1%。
Nov, 2024