掩码 R-CNN
提出了一种新的 Boundary-preserving Mask R-CNN(BMask R-CNN)的实例分割方法,运用了物体边界信息和特征融合块来改进口罩定位精度,在 COCO 数据集和 Cityscapes 数据集上的实验结果表明 BMask R-CNN 在口罩像素预测和物体边界对齐方面优于 Mask R-CNN。
Jul, 2020
本文提出了一个新的预测模型 ——Edge Agreement Head,它可加快 Mask R-CNN 模型实例分割网络的训练速度,同时也提升了 MS COCO metrics 的表现。
Sep, 2018
本文提出了一种新的旨在优化实例分割方法的卷积神经网络,该网络称为 BlendMask。BlendMask 可以有效地将实例级信息与语义信息相结合,并能够学习每个实例的注意力图,并且具有较快的推理速度,其可以与最先进的一阶段检测框架轻松集成,同时在相同训练计划下优于 Mask R-CNN,并可以在单个 1080Ti GPU 卡上以 25 FPS 评估时实现 34.2% mAP,其简单易用而且强大,可用于一系列实例化任务。
Jan, 2020
该研究提出了一种新的部分监督训练范式和权重转移函数,使得可以在仅有少量掩模注释的情况下,使用来自 Visual Genome 数据集的框注释和 COCO 数据集中 80 个类别的掩模注释,训练出可以检测和分割 3000 个视觉概念的 Mask R-CNN 模型,在 COCO 数据集上进行了实验评估。这是实现广泛理解视觉世界的目标实例分割模型的第一步。
Nov, 2017
本文提出了一种使用图像级别标签进行实例分割的新框架,其中分为两个阶段,分别是训练分类器生成伪掩模并在这些伪掩模上训练完全监督的 Mask R-CNN。在 PASCAL VOC 2012 数据集上进行实验,相对于现有方法说明主要性能提高。
Jul, 2019
本文研究了密集滑动窗口实例分割的范例,将其作为 4D 张量预测任务,提出了一种称为 TensorMask 的通用框架,可以明确捕获几何信息和使预测更加准确,比现有的模型具有更好的性能表现。
Mar, 2019
该研究提出一种名为 Siamese Mask R-CNN 的方法来解决一个新挑战性的问题 —— 一次性实例分割,通过对参考图像和场景进行编码来将检测和分割目标定向于参考类别,虽然将分割实例的知识转移到新对象类别的表现很好,但是针对参考类别进行检测的困难度更大,该研究为一次性实例分割提供了一个有力的准确率基准,并将启发更多有关更强大和灵活的场景分析算法的研究。
Nov, 2018
通过部分监督学习方法,我们设计了一种训练模型,在只有少数类别的实例标注数据下,通过可微分裁剪和只使用 Groundtruth box 的方法,取得了 COCO 部分监督分割测试集的最佳表现,并发现了强大的 mask-head 泛化效应。
Apr, 2021
本文提出了一种名为 MaskRNN 的递归神经网络方法,它在每帧中利用两个深度成像网络输出(二元分割网络和定位网络)进行目标实例的视频对象分割以获取长时序结构和剔除异常值,结果在 DAVIS-2016、DAVIS-2017 和 Segtrack v2 数据集中均达到了最优表现。
Mar, 2018
提出了一种基于 Faster R-CNN 的深度人脸检测方法,通过新的多任务损失函数设计、在线困难样本挖掘和多尺度训练策略等多种技术手段,名为 Face R-CNN 的方法在 FDDB 和 WIDER FACE 两个人脸检测基准测试中证明了在多方面的优越性。
Jun, 2017