基于 Faster RCNN 的目标检测模型的增量学习
通过使用一种新的损失函数,这篇研究提出了一种解决卷积神经网络增量学习中“灾难性遗忘”的问题的方法,可以在没有原始训练数据或注释的情况下适应新类别,并在PASCAL VOC 2007和COCO数据集上实现了物体检测。
Aug, 2017
本文着重介绍了如何应用知识蒸馏技术来处理增量学习的语义分割问题。经过在Pascal VOC2012和MSRC-v2数据集上的实验,该方法在多个增量学习场景中表现出显著的有效性。
Nov, 2019
该论文提出了一种基于知识蒸馏的对象检测模型微调方法,采用区域提议共享机制和自适应知识转移方法,根据模型的不同表现区分性能好坏,同时使用知识衰减策略帮助提高模型的泛化性能。实验结果表明,该方法在COOC数据集上取得了比基线模型更好的检测结果。
Jun, 2020
本文提出了一种名为 Selective and Inter-related Distillation (SID) 的增量学习模型,用于在锚点自由目标检测器上解决灾难性遗忘问题,并提出了一种新的评估度量方法,通过在适当的位置选择性提取和进一步传输实例关系知识,方法在 PASCAL VOC 和 COCO 数据集上表现出显著的优势。
Dec, 2020
本文提出了一种响应型渐进式蒸馏方法,名为弹性响应蒸馏(ERD),主要关注从分类头和回归头中弹性地学习响应。在 MS COCO 上进行的广泛实验证明,我们的方法实现了最先进的结果,从而实现了向完全训练的性能差距的大幅缩小。
Apr, 2022
对于计算和内存资源有限的感知系统,我们提出了一种简单但非常有效的序列化方法来通过知识蒸馏来提高轻量级分类模型的性能,并成功将基于Transformer的教师检测器的知识转化到基于卷积的学生检测器上,从而显著提升了MS COCO基准测试上RetinaNet和Mask R-CNN的性能。
Aug, 2023
基于CenterNet的MultIOD是一种无需复习和复述的类增量目标检测器,通过多头特征金字塔和多头检测架构高效分离类别表示,利用迁移学习和类别非极大值抑制技术解决灾难性遗忘问题,并在两个Pascal VOC数据集上显著优于一系列最先进的方法。
Sep, 2023
提出了一种增量因果物体检测(ICOD)模型,通过学习因果特征来适应更多任务,解决了在新任务中神经网络面临的灾难性遗忘问题。实验结果表明,不受数据偏差影响的因果特征能够使模型更好地适应新任务。
Mar, 2024