SG-Net: 一阶段视频实例分割的空间粒度网络
本文提出了基于图神经网络(GNN)的视频目标实例分割方法,使用图中的节点表示实例特征来进行检测和分割,而使用表示实例关系的图中的边来进行跟踪,有效地传播和共享帧内外信息,同时优化检测、分割和跟踪三个问题,取得了优于现有方法的表现。
Mar, 2022
本文提出了一种基于网格结构特征表示的新型单阶段框架,并引入协作操作模块来聚合可用帧的信息以丰富所有 VIS 子任务的特征,从而在所有 VIS 任务中高效地充分利用先前信息,实现了实时处理,并在 YouTube-VIS 2019 和 21 数据集上获得了新的最高准确率(38.6 AP 和 36.9 AP)和速度(40.0 FPS),代码已公开。
Dec, 2021
本文提出了一种基于 CondInst 方法和单阶段的跟踪头的简单高效的视频实例分割框架,利用新颖的双向时空对比学习策略和实例级别的时间一致性方案来提高实例关联性准确性,在 YouTube-VIS-2019,YouTube-VIS-2021 和 OVIS-2021 数据集上验证了该方法的有效性和效率。
Feb, 2022
我们提出了一个名为 STMask 的简单而有效的一阶段视频实例分割框架,通过空间校准和时间融合解决了现代一阶段视频实例分割网络的一些限制,它能够处理视频中的挑战性场景并具有很高的性能。
Apr, 2021
该研究提出了一种新型的时空图神经网络(STG-Net)方法,它通过利用所有 Object Proposals 并捕捉它们之间的关联来更精确地重建视频对象分割的遮罩,并通过滑动窗口方法以及记忆模型来捕捉时态相关信息。该方法在四个大型数据集上实现了最新的表现,并展示了其有效性。
Dec, 2020
本文提出一种新的视频实例分割方法,利用基于 patch 的卷积神经网络设计的掩模选择网络,以及前向和后向推理的时间一致性策略来提高分割结果的准确性,从而实现了对视频中对象的跟踪和分割。该方法在 2021 年 YouTube-VIS 挑战赛中获得了 49.1mAP 的得分,并获得了第三名的成绩。
Jun, 2021
通过减少视频帧中的人工注释点为每个对象,我们提出了一种训练方法来获得接近完全监督模型的高质量掩码预测,在三个视频示例分割基准上展示了该框架的竞争性性能。
Apr, 2024