PLOP: 持续语义分割中无遗忘学习
本研究旨在解决深度学习架构在面临新增任务时由于灾难性遗忘导致性能下降的问题,提出了一种知识蒸馏方法来保留以前学习过的类别信息,并同时学习新类别,本文在Pascal VOC2012数据集上进行了实验验证其有效性。
Jul, 2019
本文探讨了深度架构在更新模型上的遗忘问题和在语义分割中的特殊性,提出了一种基于蒸馏的框架解决语义分割中的背景类语义分布不一致的问题,并引入了一种新的分类器参数初始化策略,最终在Pascal-VOC 2012和ADE20K数据集上显著优于现有的增量学习方法。
Feb, 2020
本文提出了一种新的持续学习方案,该方案通过神经网络的原型匹配、特征稀疏化和对比学习等三个新组件来纠正模型在学习新任务时遗忘旧任务的问题,在语义分割上进行了测试并在Pascal VOC2012和ADE20K数据集上取得了显著的准确性,远超过现有技术。
Mar, 2021
本文提出了一种名为PLOP的方法,使用了多尺度池化蒸馏技术,在特征级别上保留了长程和短程空间关系,并设计了一种基于熵的伪标签方法来处理背景变化和避免旧类的灾难性遗忘,并引入了一种新的排练方法,特别适用于分割。在现有的连续语境场景以及新的提出的具有挑战性的基准测试中,我们的方法显着优于现有的最先进方法。
Jun, 2021
本文提出了一种基于公平性目标的新型公平连续学习框架,通过基于类分布的方法来解决语义分割中的公平问题,并提出了一种新型的原型对比聚类损失和有条件的结构一致性损失,用于应对连续学习中的灾难性遗忘和背景变化等重要挑战。该方法在三个标准的场景理解基准测试中均取得了最新的表现,并提高了模型的公平性。
May, 2023
连续学习在深度学习和人工智能系统中具有突破性意义,本文以连续语义分割为例,全面调查其问题形式、主要挑战、通用数据集、新理论和多样应用,并分类整理了当前 CSS 模型中的数据回放和无数据集两个主要分支方法,并提供了具有不同应用场景和发展趋势的四个 CSS 特性。
Oct, 2023
通过Visual Prompt Tuning方法进行的连续全景分割(ECLIPSE)在ADE20K连续全景分割基准任务中展示出优势,在遗忘和可塑性方面达到了新的最先进水平。
Mar, 2024
该论文提出了一种名为BACS的向后背景位移检测器,用于检测以前观察到的类,并建议一种修改后的交叉熵损失函数,结合BACS检测器,降低与以前观察到的类相关联的背景像素的权重,以解决连续语义分割面临的问题。同时,该方法通过掩蔽特征蒸馏和暗体验重播来应对灾难性遗忘,并使用能够适应新类别的变压器解码器,而不需要额外的分类头。该方法在标准连续语义分割基准测试上验证了BACS相对于现有最先进方法的卓越表现。
Apr, 2024