面向持续语义分割的表示补偿网络
本文提出了一种新的持续学习方案,该方案通过神经网络的原型匹配、特征稀疏化和对比学习等三个新组件来纠正模型在学习新任务时遗忘旧任务的问题,在语义分割上进行了测试并在Pascal VOC2012和ADE20K数据集上取得了显著的准确性,远超过现有技术。
Mar, 2021
本文提出了一种名为PLOP的方法,使用了多尺度池化蒸馏技术,在特征级别上保留了长程和短程空间关系,并设计了一种基于熵的伪标签方法来处理背景变化和避免旧类的灾难性遗忘,并引入了一种新的排练方法,特别适用于分割。在现有的连续语境场景以及新的提出的具有挑战性的基准测试中,我们的方法显着优于现有的最先进方法。
Jun, 2021
研究使用生成对抗网络和网络抓取数据重现不可用的旧类数据,避免遗忘和背景类的数据分布变化,达到在连续学习中存在不同步骤和背景类分布变化的情况下更好的表现。
Aug, 2021
本文研究了语义分割的连续多场景自适应问题,提出了基于 Semantic-NeRF 网络的解决方案,通过将分割模型的预测结果融合,使用视点一致的渲染语义标签来适应模型。我们在 ScanNet 数据集上测试,取得了比基线和最先进的无监督域自适应方法更好的性能。
Nov, 2022
本文提出了一种基于公平性目标的新型公平连续学习框架,通过基于类分布的方法来解决语义分割中的公平问题,并提出了一种新型的原型对比聚类损失和有条件的结构一致性损失,用于应对连续学习中的灾难性遗忘和背景变化等重要挑战。该方法在三个标准的场景理解基准测试中均取得了最新的表现,并提高了模型的公平性。
May, 2023
本研究提出了一种Gradient-Semantic Compensation (GSC)模型,从梯度和语义的角度克服了增量语义分割中的灾难性遗忘和背景转移问题。通过重新加权梯度反向传播来平衡先前训练类别的遗忘速度,同时提出了软锐语义关系蒸馏来减轻语义方面的灾难性遗忘,并使用原型伪重新标签方法提供强大的语义引导以减轻背景转移问题。在Pascal VOC 2012、ADE20K和Cityscapes三个公共数据集上的大量实验证明了提出的GSC模型的有效性。
Jul, 2023
本文提出了一种新的方法Inherit with Distillation and Evolve with Contrast (IDEC),它通过Dense Knowledge Distillation on all Aspects (DADA)和Asymmetric Region-wise Contrastive Learning (ARCL)模块解决了类增量语义分割中遇到的灾难性遗忘问题和语义漂移问题,并在多个CISS任务中展现出卓越的性能。
Sep, 2023
连续学习在深度学习和人工智能系统中具有突破性意义,本文以连续语义分割为例,全面调查其问题形式、主要挑战、通用数据集、新理论和多样应用,并分类整理了当前 CSS 模型中的数据回放和无数据集两个主要分支方法,并提供了具有不同应用场景和发展趋势的四个 CSS 特性。
Oct, 2023
通过向vanilla ViTs集成轻量级的adapter,提出了ConSept用于不断的语义分割,在旧类别和新类别的分割能力上取得了显著提升,并通过确定性的旧类别边界进行蒸馏以提高抗灾性遗忘能力并改善整体分割性能。
Feb, 2024