深度物体检测的上下文评估
通过开发一种名为AC-CNN的新型神经网络模型,将全局和局部上下文信息有效地结合到区域卷积神经网络中,提高了目标检测性能,特别是在PASCAL VOC 2007和VOC 2012数据集上,与目前主流的Fast-RCNN算法相比在mAP方面分别提高了2.0%和2.2%
Mar, 2016
本文提出了一种综合局部外观特征,对象关系的上下文信息和全局场景上下文特征的集合物体检测系统,该系统采用基于对象建议的完全连接条件随机场(CRF)进行建模,并利用快速平均场近似方法有效地进行CRF 模型中的推理,实验结果表明,与基线算法 Faster R-CNN 相比,我们的方法在 PASCAL VOC 2007 数据集上实现了更高的平均精度(mAP).
Apr, 2016
研究对象检测中上下文限制效果有限的原因,提出了一种基于区域的上下文重新评分方法,该方法采用动态上下文选择来消除噪声并强调信息上下文,实验表明该方法在性能评估方面显著优于外观检测器和传统上下文模型。
Sep, 2016
本研究基于特殊遮盖的MS COCO数据集,对目前最先进的Faster R-CNN和YOLO目标检测器的准确性进行评估和比较,以衡量它们的预测有多少依赖于编码在对象类别级别上的上下文信息。研究结果表明,当前检测器通常不会在类别级别上建立强的依赖关系,但是当它们这样做时,它们的方式往往相似,表明对象类别的上下文依赖性是一个独立的属性,这具有传递知识的相关性。
Sep, 2018
提出了一种上下文关注框架,通过学习上下文感知的人和对象外观特征,并采用自适应方法选择相关实例中心的上下文信息以突出可能包含人物-物品交互的图像区域,从而在三个数据集上超越现有最佳方法。
Oct, 2019
提出了一种利用上下文改进小目标检测准确性的方法,该方法使用不同层的多尺度特征作为上下文来增强小目标检测的准确性,并提出带有注意机制的物体检测方法,可以专注于图像中的对象并包括目标层的上下文信息。实验结果表明,该方法在检测小目标方面的准确性比传统SSD更高,在PASCAL VOC2007测试集上实现了78.1%的mAP。
Dec, 2019
针对少样本目标检测的问题,我们提出了一种基于 Context-Transformer 的深度迁移学习方法,该方法可以巧妙地利用源域目标知识,从少量样本中自动利用上下文信息以提高检测器的区分能力,并在 popular SSD-style 检测器中灵活嵌入,从而成为端到端少样本学习的即插即用模块。实验结果表明,我们的框架优于最新的 state-of-the-art 方法。
Mar, 2020
提出了GMC框架,用于多阶段上下文学习和利用的通用框架,利用各种深度网络架构进行各种视觉检测任务。GMC框架包括三个阶段:预处理、训练和后处理,并通过结合语义上下文信息和视觉信息,以及利用训练数据集中的先验知识捕捉语义关系,在对象之间实现空间上下文推理。框架灵活适应用户定义的配置和多样化的网络架构和视觉检测任务,提供了一个自动化和高效的解决方案,在上下文学习和推理中最大程度地减少用户的工作量和推理时间,并在视觉检测任务中展示了超越先前状态-of-the-art检测器和变换器架构的实验结果。实验还证明了三个上下文学习组件不仅可以单独应用,也可以组合应用,并且可以应用于各种网络架构,在各种检测场景下具有灵活性和高效性。
Jul, 2024