本研究旨在解决深度学习架构在面临新增任务时由于灾难性遗忘导致性能下降的问题,提出了一种知识蒸馏方法来保留以前学习过的类别信息,并同时学习新类别,本文在 Pascal VOC2012 数据集上进行了实验验证其有效性。
Jul, 2019
本文提出了一种对语义分割算法进行增量式学习的技术,该技术可以在不使用模型最初训练的标记数据的情况下,进行类别的增量式学习,以便于在开发需要新类的自治驾驶系统时使用。我们的实验结果表明,我们提出的技术可以超过同类算法,并有助于提高各类别的性能。
May, 2020
研究使用生成对抗网络和网络抓取数据重现不可用的旧类数据,避免遗忘和背景类的数据分布变化,达到在连续学习中存在不同步骤和背景类分布变化的情况下更好的表现。
Aug, 2021
通过使用一种新的损失函数,这篇研究提出了一种解决卷积神经网络增量学习中 “灾难性遗忘” 的问题的方法,可以在没有原始训练数据或注释的情况下适应新类别,并在 PASCAL VOC 2007 和 COCO 数据集上实现了物体检测。
Aug, 2017
提出了一种基于自监督学习和伪标签的自训练方法,用于减轻深度神经网络在逐步学习新类任务时出现的灾难性遗忘问题,该方法不仅考虑了历史任务的知识,还利用了额外的数据提高了语义分割的性能。
Dec, 2020
本文探讨了深度架构在更新模型上的遗忘问题和在语义分割中的特殊性,提出了一种基于蒸馏的框架解决语义分割中的背景类语义分布不一致的问题,并引入了一种新的分类器参数初始化策略,最终在 Pascal-VOC 2012 和 ADE20K 数据集上显著优于现有的增量学习方法。
Feb, 2020
本文提出了一种新的持续学习方案,该方案通过神经网络的原型匹配、特征稀疏化和对比学习等三个新组件来纠正模型在学习新任务时遗忘旧任务的问题,在语义分割上进行了测试并在 Pascal VOC2012 和 ADE20K 数据集上取得了显著的准确性,远超过现有技术。
Mar, 2021
本文着重介绍了如何应用知识蒸馏技术来处理增量学习的语义分割问题。经过在 Pascal VOC2012 和 MSRC-v2 数据集上的实验,该方法在多个增量学习场景中表现出显著的有效性。
Nov, 2019
该研究针对增量学习设计了一种新方法,使用嵌入网络,以自然方式加入新类别而无需添加新的权重,并且通过估计特征的语义漂移来避免严重遗忘。实验结果表明,该方法表现优异且能显著减少遗忘。
Apr, 2020
一项新的增量学习方法使用少量的示例集合来学习深层神经网络,解决了深度学习中的灾难性忘记问题,在 CIFAR-100 和 ImageNet(ILSVRC 2012)图像分类数据集上取得了最先进的成果。
Jul, 2018