具有动态查询的图像分割的持续学习
本文提出了一种新的方法 Inherit with Distillation and Evolve with Contrast (IDEC),它通过 Dense Knowledge Distillation on all Aspects (DADA) 和 Asymmetric Region-wise Contrastive Learning (ARCL) 模块解决了类增量语义分割中遇到的灾难性遗忘问题和语义漂移问题,并在多个 CISS 任务中展现出卓越的性能。
Sep, 2023
基于强大的目标性和防遗忘特性,我们提出了 CoMasTRe 方法,它将持续分割任务分为两个阶段,通过学习抗遗忘的目标性特征和经过良好研究的分类特征,采用简单但有效的蒸馏策略来强化目标性,并通过多标签类蒸馏策略减轻旧类别的遗忘,实验证明该方法在 PASCAL VOC 数据集上优于像素级和基于查询的方法。
Mar, 2024
本文探究了点云语义分割中类增量学习的问题,比较了不同的连续学习策略和先进的架构,并且在 SemanticKITTI 数据集上获得了与现有方法相当的效果。
Apr, 2023
连续学习在深度学习和人工智能系统中具有突破性意义,本文以连续语义分割为例,全面调查其问题形式、主要挑战、通用数据集、新理论和多样应用,并分类整理了当前 CSS 模型中的数据回放和无数据集两个主要分支方法,并提供了具有不同应用场景和发展趋势的四个 CSS 特性。
Oct, 2023
本文提出一种称为 CIL-QUD 的 Class-incremental learning 模型,通过通过利用外部未标记的查询数据来解决保留过去已学类别信息和学习新增类别之间的困境,并采用学习不遗忘的正则化器和类平衡训练,建立了一个既能够维护过去已有类别的泛化能力又能够在新增任务到来时保持学习的模型,实现了稳健性的 CIL, RCIL-QUD,并在 CIFAR-10 和 CIFAR-100 上获得了好的实验效果。
Jun, 2022
提出了一种新的无数据增量学习框架,通过学习类别的数据综合代替先前类别的数据存储,在引入新类别时更新网络;关键创新包括获取以往无法获取的类别的合成数据(称为 Continual Class-Specific Impression - CCSI)并有效利用这些数据来更新网络,同时采用多个损失函数来推广深度网络。
Jun, 2024
提出一种名为 DISCA 的框架,通过交互式学习过程使用稀疏用户注释作为 ground-truth,持续地使神经网络适应目标图像来精细调整深层神经网络输出的像素级分类图,实验结果表明该方法在三个数据集上的 IoU 值可以提高 4.7%,并且可以有效地应对像领域适应等其他问题。
Sep, 2020
本文提出了一种名为 PLOP 的方法,使用了多尺度池化蒸馏技术,在特征级别上保留了长程和短程空间关系,并设计了一种基于熵的伪标签方法来处理背景变化和避免旧类的灾难性遗忘,并引入了一种新的排练方法,特别适用于分割。在现有的连续语境场景以及新的提出的具有挑战性的基准测试中,我们的方法显着优于现有的最先进方法。
Jun, 2021
本文提出了一种高效利用多级特征融合 Class Incremental Semantic Segmentation 的方法,采用特征金字塔和 DEFY 模块等技术,使得在 PASCAL VOC 2012 和 ADE20K 数据集上的平均性能指标都得以显著提升。
Jun, 2023
本研究提出了一种针对 BLQA 的基于连续学习的模型,以提高模型的适应性和稳定性,通过新的预测头和正则化器来实现在不断增长的数据流中不断学习并避免灾难性遗忘,在所有预测头的估计的自适应加权求和得出最终图像质量评分。
Feb, 2021