我们提出了一个简单、灵活、通用的物体实例分割框架。此方法名为 Mask R-CNN,通过在现有的边界框识别分支上添加一个预测对象掩模的分支,同时高效地检测图像中的物体并生成每个实例的高质量分割掩模。该方法简单易用,可快速训练,并且在 COCO 挑战赛的三个跟踪任务中均取得最佳结果,在实例分割、边界框目标检测和人体关键点检测方面均表现优异,是一个强大的基线模型。
Mar, 2017
提出了一种新的 Boundary-preserving Mask R-CNN(BMask R-CNN)的实例分割方法,运用了物体边界信息和特征融合块来改进口罩定位精度,在 COCO 数据集和 Cityscapes 数据集上的实验结果表明 BMask R-CNN 在口罩像素预测和物体边界对齐方面优于 Mask R-CNN。
Jul, 2020
通过部分监督学习方法,我们设计了一种训练模型,在只有少数类别的实例标注数据下,通过可微分裁剪和只使用 Groundtruth box 的方法,取得了 COCO 部分监督分割测试集的最佳表现,并发现了强大的 mask-head 泛化效应。
Apr, 2021
本文提出了一种新的旨在优化实例分割方法的卷积神经网络,该网络称为 BlendMask。BlendMask 可以有效地将实例级信息与语义信息相结合,并能够学习每个实例的注意力图,并且具有较快的推理速度,其可以与最先进的一阶段检测框架轻松集成,同时在相同训练计划下优于 Mask R-CNN,并可以在单个 1080Ti GPU 卡上以 25 FPS 评估时实现 34.2% mAP,其简单易用而且强大,可用于一系列实例化任务。
Jan, 2020
该研究提出了一种新的部分监督训练范式和权重转移函数,使得可以在仅有少量掩模注释的情况下,使用来自 Visual Genome 数据集的框注释和 COCO 数据集中 80 个类别的掩模注释,训练出可以检测和分割 3000 个视觉概念的 Mask R-CNN 模型,在 COCO 数据集上进行了实验评估。这是实现广泛理解视觉世界的目标实例分割模型的第一步。
Nov, 2017
本研究旨在解决在实例分割任务中实例分类置信度与实例分割准确度之间不相关的问题,提出了基于遮罩评分的区域卷积神经网络(Mask Scoring R-CNN)方法,该方法可以协调遮罩质量和遮罩分数之间的不一致,从而提高实例分割性能,并在 COCO 数据集上相对于 Mask R-CNN 取得了更好的性能表现。
Mar, 2019
本文提出了一种使用图像级别标签进行实例分割的新框架,其中分为两个阶段,分别是训练分类器生成伪掩模并在这些伪掩模上训练完全监督的 Mask R-CNN。在 PASCAL VOC 2012 数据集上进行实验,相对于现有方法说明主要性能提高。
Jul, 2019
本文针对 Mask R-CNN 在场景文本检测与定位中面临的实际问题,提出了一种基于 MLP 解码器和实例感知掩模学习技术的方法,可以显著提高鲁棒性。同时提出了一种自适应标签分配方法,以应对比例和宽高比差异较大的实例问题。该方法在多个基准测试中展现了优异的性能。
Sep, 2021
本文提出了一种基于网格框标注的高性能方法,实现了面部实例分割,通过重新设计学习实例分割中的掩码损失函数,优化了训练过程,并在 COCO 数据集上实现了优秀的实验结果。
Dec, 2020
本文研究了密集滑动窗口实例分割的范例,将其作为 4D 张量预测任务,提出了一种称为 TensorMask 的通用框架,可以明确捕获几何信息和使预测更加准确,比现有的模型具有更好的性能表现。