持续语义分割研究综述:理论、挑战、方法与应用
本研究旨在解决深度学习架构在面临新增任务时由于灾难性遗忘导致性能下降的问题,提出了一种知识蒸馏方法来保留以前学习过的类别信息,并同时学习新类别,本文在Pascal VOC2012数据集上进行了实验验证其有效性。
Jul, 2019
本文探讨了深度架构在更新模型上的遗忘问题和在语义分割中的特殊性,提出了一种基于蒸馏的框架解决语义分割中的背景类语义分布不一致的问题,并引入了一种新的分类器参数初始化策略,最终在Pascal-VOC 2012和ADE20K数据集上显著优于现有的增量学习方法。
Feb, 2020
本文提出了一种新的持续学习方案,该方案通过神经网络的原型匹配、特征稀疏化和对比学习等三个新组件来纠正模型在学习新任务时遗忘旧任务的问题,在语义分割上进行了测试并在Pascal VOC2012和ADE20K数据集上取得了显著的准确性,远超过现有技术。
Mar, 2021
本文提出了一种名为PLOP的方法,使用了多尺度池化蒸馏技术,在特征级别上保留了长程和短程空间关系,并设计了一种基于熵的伪标签方法来处理背景变化和避免旧类的灾难性遗忘,并引入了一种新的排练方法,特别适用于分割。在现有的连续语境场景以及新的提出的具有挑战性的基准测试中,我们的方法显着优于现有的最先进方法。
Jun, 2021
通过使用模拟真实世界条件的新实验协议,本文验证了关于连续学习的假设,并评估迄今取得的进展。结果表明,考虑到所有方法均表现不佳,明显偏离联合离线训练的上限,这对现实环境中的现有方法的适用性提出了问题。本文旨在通过新的实验协议来倡导采用连续学习方法,以在该领域取得突破。
Feb, 2024
Weakly Incremental Learning for Semantic Segmentation (WILSS) addresses the issue of conflicting predictions and catastrophic forgetting by proposing a tendency-driven relationship of mutual exclusivity, allowing for concurrent execution with model parameter updating via a bi-level optimization problem, leading to new benchmarks and paving the way for further research.
Apr, 2024
该论文提出了一种名为BACS的向后背景位移检测器,用于检测以前观察到的类,并建议一种修改后的交叉熵损失函数,结合BACS检测器,降低与以前观察到的类相关联的背景像素的权重,以解决连续语义分割面临的问题。同时,该方法通过掩蔽特征蒸馏和暗体验重播来应对灾难性遗忘,并使用能够适应新类别的变压器解码器,而不需要额外的分类头。该方法在标准连续语义分割基准测试上验证了BACS相对于现有最先进方法的卓越表现。
Apr, 2024