本文着重介绍了如何应用知识蒸馏技术来处理增量学习的语义分割问题。经过在 Pascal VOC2012 和 MSRC-v2 数据集上的实验,该方法在多个增量学习场景中表现出显著的有效性。
Nov, 2019
该论文提出了一种新的语义分割框架,采用弱增量学习,使用辅助分类器和软标签更新模型,从图像级别标签中学习新类别的分割,可有效减少由像素逐像素标注带来的时间和经济成本。
Dec, 2021
本研究提出一种增量学习方法,可在不影响之前学习到的类别的情况下,学习新类别的语义分割,同时,利用记忆网络来记忆之前学习到的信息。
Oct, 2018
本文探讨了深度架构在更新模型上的遗忘问题和在语义分割中的特殊性,提出了一种基于蒸馏的框架解决语义分割中的背景类语义分布不一致的问题,并引入了一种新的分类器参数初始化策略,最终在 Pascal-VOC 2012 和 ADE20K 数据集上显著优于现有的增量学习方法。
Feb, 2020
本文提出了一种对语义分割算法进行增量式学习的技术,该技术可以在不使用模型最初训练的标记数据的情况下,进行类别的增量式学习,以便于在开发需要新类的自治驾驶系统时使用。我们的实验结果表明,我们提出的技术可以超过同类算法,并有助于提高各类别的性能。
May, 2020
本论文全面调查了现有的针对图像分类的类增量学习方法,特别是在 13 种类增量方法上进行了广泛的实验评估,包括多个大规模图像分类数据集上的类增量方法比较,小范围和大范围域转移的研究,以及各种网络架构的比较。
Oct, 2020
通过使用一种新的损失函数,这篇研究提出了一种解决卷积神经网络增量学习中 “灾难性遗忘” 的问题的方法,可以在没有原始训练数据或注释的情况下适应新类别,并在 PASCAL VOC 2007 和 COCO 数据集上实现了物体检测。
Aug, 2017
本文提出了一种基于期望最大化 (EM) 框架的增量学习策略,用于快速适应深度分割模型的新类别,具有更好的效果和稳定性,并应用于 PASCAL VOC 2012 和 ADE20K 数据集上进行验证。
Aug, 2021
一项新的增量学习方法使用少量的示例集合来学习深层神经网络,解决了深度学习中的灾难性忘记问题,在 CIFAR-100 和 ImageNet(ILSVRC 2012)图像分类数据集上取得了最先进的成果。
Jul, 2018
该论文提出了一种增量学习框架,针对在线学习场景下的两个主要障碍,即新类的学习和旧类的新观测值的变化。通过引入修改的交叉蒸馏损失和两步学习技术来解决问题(1),并提供通过更新范例集合减轻问题(2)的简单而有效的方法,并在基于 Food-101 数据集的在线食品图像分类的真实应用中展示了该方法的性能。
Mar, 2020