视频目标分割的粗细视觉框架
本文提出了第一个完全无监督的方法,用于在真实场景的序列中分割多个对象,通过空间绑定对象并将这些槽联系起来,在高级语义特征空间中重建中间帧,解决了效率和规范化问题,成功地在 YouTube 视频中分割了复杂且多变的类别的多个实例。
Oct, 2023
该论文提出了一种用于视频中物体分割的方法,结合了帧级物体检测与物体跟踪、运动分割等概念,提取了基于现成检测器的时间一致性物体管,结合运动线索提供视频分割,克服了弱监督 / 无监督视频分割的典型问题,并提供每个对象的精确、时间一致的分割。
Aug, 2016
本文提出了基于光流和边缘线索的新型显着性估计技术和新型邻域图,用于解决快速运动,运动模糊和遮挡等视频分割的挑战,在 DAVIS,SegTrack v2 和 FBMS-59 数据集中取得了超越深度学习方法的最新成果。
Sep, 2018
本文提出了一种基于神经网络的视频分割方法,用于区分视频帧中独立运动的物体,并利用对象运动、外观和时间一致性等多个信息源,通过对数据进行训练得到模型,经过评估表明该模型在 DAVIS、Freiburg-Berkeley 运动分割数据集和 SegTrack 等数据集上表现良好。
Dec, 2017
本研究提出了一种快速准确的视频目标分割算法,使用一个基于部件跟踪的方法来处理具有大变形、遮挡或杂乱背景的视频,生成部分掩模,最后采用基于相似性得分的函数来完善目标部分。实验结果表明,此算法可在 DAVIS 基准数据集上获得比其他算法更高的分割精度,并实现更快的运行时性能。
Jun, 2018
本文提出了一种新的框架,将视频 / 图像分割和区域定位视为一个单一的优化问题,并以非常弱的监督方式集成低级外观线索和高级定位线索的信息。该框架利用不同级别的两种表示,利用边界框和超像素之间的空间关系作为线性约束,同时在边界框和超像素级别上区分前景和背景。与以往主要依赖于判别聚类的方法不同,我们结合了一个前景模型,使得一个物体在所有图像帧中的直方图差异最小。利用超像素和边界框之间的几何关系使得分割线索可以传递以改善定位输出,反之亦然。前景模型的引入将我们的判别框架推广到视频数据,其中背景往往是相似的,因此不具有判别力。我们证明了我们的统一框架在 YouTube 对象视频数据集,Internet 对象发现数据集和 Pascal VOC 2007 上的有效性。
Nov, 2018
本文提出了一种基于视频显着性的关键实例选择方法,涵盖了对象性和动态特性,用于非监督式视频对象分割,在多个属性如 ReID 描述符,预期轨迹和语义共分割结果等方面考虑相似性度量,并基于视频显着性和出现频率选择关键 ID 进行跟踪。这些技术贡献使得我们在 UVOS DAVIS 挑战的排行榜上排名第三。
Jun, 2019