边界保留的Mask R-CNN
我们提出了一个简单、灵活、通用的物体实例分割框架。此方法名为Mask R-CNN,通过在现有的边界框识别分支上添加一个预测对象掩模的分支,同时高效地检测图像中的物体并生成每个实例的高质量分割掩模。该方法简单易用,可快速训练,并且在COCO挑战赛的三个跟踪任务中均取得最佳结果,在实例分割、边界框目标检测和人体关键点检测方面均表现优异,是一个强大的基线模型。
Mar, 2017
本文提出了一种基于弱监督学习框架的对象实例分割方法,使用对抗训练的方法学习对象掩模,利用剪切-粘贴的游戏过程,通过掩模生成器和区分器的协同作用来实现分割掩模的优化,实验结果表明,该方法在不需要手工标注分割建议的情况下,可以超越现有的弱监督分割方法,并获得了90%的监督分割性能。
Mar, 2018
本文提出了一个新的预测模型——Edge Agreement Head,它可加快Mask R-CNN模型实例分割网络的训练速度,同时也提升了MS COCO metrics的表现。
Sep, 2018
本文研究了密集滑动窗口实例分割的范例,将其作为4D张量预测任务,提出了一种称为TensorMask的通用框架,可以明确捕获几何信息和使预测更加准确,比现有的模型具有更好的性能表现。
Mar, 2019
本文提出了一种基于空间注意的中心掩码的实例分割方法,通过添加一个新的空间注意引导掩模模块在FCOS物体检测器中进行预测,并在改进的背骨网络VoVNetV2的支持下设计了针对大型和小型模型的CenterMask和CenterMask-Lite,实现了在ResNet-101-FPN的相同骨干网络下的实时实例分割,性能优于所有之前的最先进方法,同时速度更快。
Nov, 2019
本文提出了一种新的旨在优化实例分割方法的卷积神经网络,该网络称为BlendMask。BlendMask可以有效地将实例级信息与语义信息相结合,并能够学习每个实例的注意力图,并且具有较快的推理速度,其可以与最先进的一阶段检测框架轻松集成,同时在相同训练计划下优于Mask R-CNN,并可以在单个1080Ti GPU卡上以25 FPS评估时实现34.2% mAP,其简单易用而且强大,可用于一系列实例化任务。
Jan, 2020
提出了一种单阶段实例分割方法SipMask,其通过将一个实例的掩模预测分离到一个检测到的边界框的不同子区域中来保留实例特定的空间信息。通过引入一种空间保留模块(SP),SipMask生成每个边框子区域的独立空间系数,带来更好的掩模预测。在COCO test-dev上,SipMask比现有的单阶段方法表现更好,并且相对于最先进的TensorMask提供了1.0%(掩模AP)的绝对增益,同时提供四倍的加速。SipMask在类似设置下优于YOLACT,其操作速度与Titan Xp上的相当,其绝对收益为3.0%(掩模AP)。
Jul, 2020
本研究提出了基于Boundary Basis的单阶段实例分割(B2Inst),使用全局边界表示来补充现有的全局掩码方法,引入了一个能够评估每个实例预测的网络块,可以提高实例边界的识别精度,并在COCO数据集上,与同样基于ResNet-50和ResNet-101的现有最先进方法相比,取得了一致的改进。
Nov, 2020
提出一种基于后处理细化的框架,名为BPR,以改善任何实例分割模型的结果,该框架通过沿预测边界提取和细化一系列小的边界补丁来提高边界质量,在Cityscapes基准测试中比Mask R-CNN基线得到显著提升,特别是在边界感知度量方面;此外,通过将BPR框架应用于PolyTransform + SegFix基线,我们在Cityscapes排行榜上达到第一名。
Apr, 2021
本文提出了一种名为RefineMask的新方法,通过多阶段方式在实例分割过程中整合细粒度特征,从而使分割精细化,尤其是适用于大对象的分割,并在COCO、LVIS和Cityscapes基准测试中分别取得了2.6、3.4和3.8 AP的显著增益,同时在LVIS测试数据集上超越了2020年的LVIS挑战赛的获胜者并创造了新的最佳成果。
Apr, 2021