MaskRNN:实例级视频对象分割
本研究提出了一种端到端的深度神经网络,结合了 Mask-RCNN 实例分割网络和 Conv-GRU 视觉记忆模块,用于解决半监督视频对象分割任务,实验结果表明该方法在 DAVIS 数据集上取得了令人满意的结果。
Sep, 2019
本论文提出了一个新的计算机视觉任务,名为视频实例分割,目标是同时检测、分割和跟踪视频帧中的实例。为了便于研究,提出了一个大规模基准数据集 YouTube-VIS 和一个新算法 MaskTrack R-CNN。实验表明,这个算法优于强基线,并为未来研究提供了启示。
May, 2019
本研究提出了一种使用深度循环网络实现同时分割和追踪视频中物体的方法,结合了时间传播和重新识别模块,以及基于注意力的循环蒙版传播方法,取得了在 DAVIS 2017 基准测试(test-dev 集合)上最高的分割和边缘测量平均值(68.2),优于同一分区上获胜解决方案的全球平均值(66.1)
Mar, 2018
该论文提出了一种通过利用邻帧预测的空间信息并结合时间域中的帧间注意力机制来提高视频实体分割质量的方法,其在 YouTube-VIS 数据集上取得 36.0% 的 mAP,且该方法是完全在线的,不需要使用未来的视频帧。
Nov, 2021
我们提出了一个简单、灵活、通用的物体实例分割框架。此方法名为 Mask R-CNN,通过在现有的边界框识别分支上添加一个预测对象掩模的分支,同时高效地检测图像中的物体并生成每个实例的高质量分割掩模。该方法简单易用,可快速训练,并且在 COCO 挑战赛的三个跟踪任务中均取得最佳结果,在实例分割、边界框目标检测和人体关键点检测方面均表现优异,是一个强大的基线模型。
Mar, 2017
本文提出了基于图神经网络(GNN)的视频目标实例分割方法,使用图中的节点表示实例特征来进行检测和分割,而使用表示实例关系的图中的边来进行跟踪,有效地传播和共享帧内外信息,同时优化检测、分割和跟踪三个问题,取得了优于现有方法的表现。
Mar, 2022
本研究提出了一种基于循环神经网络加注意机制的端到端模型,可以进行场景中物品实例的细节分割,并在 CVPPP、KITTI 和 Cityscapes 数据集上获得了竞争性的结果。
May, 2016
本文提出一种新的视频实例分割方法,利用基于 patch 的卷积神经网络设计的掩模选择网络,以及前向和后向推理的时间一致性策略来提高分割结果的准确性,从而实现了对视频中对象的跟踪和分割。该方法在 2021 年 YouTube-VIS 挑战赛中获得了 49.1mAP 的得分,并获得了第三名的成绩。
Jun, 2021