面向 R-CNN 的对象检测
本文提出一种完全卷积的区域提议网络(RPN),在同时预测目标边界和目标特征分数的同时,使用完全图像卷积特征共享检测网络的特征。
Jun, 2015
提出了一种新的基于 ResNet-101 的双阶段目标检测器 Light-Head R-CNN,通过使用一个轻量级的特征图和一个便宜的 R-CNN 子网络来实现网络头部的最小化,而且在 COCO 上表现良好,在保持时间效率的同时也比单阶段的快速检测器像 YOLO 和 SSD 更准确。
Nov, 2017
本文提出了一种用于物体检测的快速区域卷积网络方法(Fast R-CNN),该方法采用了深度卷积神经网络对目标建议进行高效分类,相较于之前的方法,在提高检测精度的同时,大幅提高了训练和测试的速度。
Apr, 2015
本文提出了一种名为 O^2-DNet 的新型模型,该模型可以通过预测每个目标内的一对中间直线来检测有方向的对象,并且它是一种一级、无锚点和无 NMS 的模型。
Dec, 2019
本文提出了 Dynamic R-CNN 以调整标签分配标准和回归损失函数的形状,这使得训练样本得到更好的利用,并使检测器适应更多的高质量样本。在 MS COCO 数据集上,我们的方法基于 ResNet-50-FPN 基线改进了 1.9% AP 和 5.5% AP$_{90}$
Apr, 2020
本文提出了一个名为 Grid R-CNN 的新型物体检测框架,它采用网格引导的定位机制实现准确的目标检测,其与传统的基于回归的方法进行了不同的创新,显式地捕获了空间信息并享有卷积架构的位置敏感性,同时采用多点监督公式设计来编码更多信息以减少特定点预测的不准确影响。为了充分利用网格中各点的关联性,提出了一种两阶段信息融合策略来融合相邻网格点的特征图,基于这些创新特性,Grid R-CNN 实现了高品质的目标定位,实验显示,与 Res50 和 FPN 架构的 Faster R-CNN 相比,在 COCO 基准测试中,在 IoU=0.8 和 0.9 时,AP 分别增加了 4.1% 和 10.0%。
Nov, 2018
本文提出了一种名为 R2CNN 的新方法,用于检测自然场景图像中的任意方向文本,基于 Faster R-CNN 架构,它使用区域提议网络(RPN)生成对不同方向的文本进行包围的对称边界框,为每个由 RPN 提出的对称文本框提取其不同池化大小的汇集特征并使用拼接的特征同时预测文本 / 非文本得分、对齐框和最小包含倾斜框,最后使用倾斜的非最大值抑制来获得检测结果,在文本检测基准测试 ICDAR 2015 和 ICDAR 2013 中取得了竞争性的结果。
Jun, 2017
该论文提出了一种新的基于角点建议网络(CPN)的锚点自由,两阶段目标检测框架,首先通过查找潜在角点关键点组合提取了许多物体建议,然后通过一个独立的分类阶段为每个建议分配一个类别标签,从而提高了召回率和精度。在 MS-COCO 数据集上,CPN 实现了 49.2% 的 AP,超越了大多数同样推理速度的竞争对手。
Jul, 2020
本论文涉及基于区域的检测器,使用卷积网络实现高效的物体检测,使用位置敏感的得分图解决分类中的平移不变性和物体检测中的平移可变性的问题,可自然地采用全卷积图像分类器骨干网进行物体检测,以 101 层残差网络 (ResNet) 在 PASCAL VOC 数据集上取得 83.6% mAP 的竞争性结果,测试时间为每张图像 170ms,比 Faster R-CNN 快 2.5-20 倍。
May, 2016