移动单目相机的运动分割
本文提出了一种运动分割算法,通过使用光流方向代替完整的光流向量,以及使用概率模型自动估计观测到的独立运动数量,实现了对具有相似世界实际运动的像素进行聚类,从而有效避免了景深不同导致的深度相关分割。该系统在多个基准测试视频中表现出鲁棒性,特别是对包含具有相差很大深度的物体的复杂背景场景的运动分割。
Nov, 2015
本研究基于第一原理推导出新的似然函数,使用角度和光流大小的新组合来最大化关于物体真实运动的信息,开发了一种运动分割算法,比当前最先进的方法提高了很大的准确率,并在两个已建立的基准测试和一个新的伪装动物数据集上进行了对比。
Apr, 2016
通过使用深度学习和几何模型融合方法,在无需训练数据的情况下,我们提出了一种能够在移动单目摄像机中以零样本方式实现优秀的运动分割结果的新型单目密集分割方法,并通过实验证明了几何模型融合对于运动分割的有效性。
May, 2024
本文提出一种基于像素几何和物体运动模型的运动预测方法,通过将图像分为运动一致的区域并利用深度构建最佳匹配的流场基础来减少从单个图像重建流场的不确定性,并在场景结构和物体运动建模方面取得了最新的结果,同时对预测深度图的评估显示出可靠的单眼深度估计性能。
Jul, 2023
本研究介绍了一种基于运动线索的分割方法,使用 Transformer 网络结构,采用自我监督的方法进行训练,结果在公共基准测试中表现优异,证明在现有视频分割模型中,对于运动线索的重要性,以及对视觉外观存在潜在偏差的可能性。
Apr, 2021
本研究提出了一种新的多帧场景流计算方法,包括景深和光流以及相机自运动,同时从移动立体相机中观察动态场景,并将移动对象与固定场景分割开来。该技术在立体匹配和视觉里程计中使用独特的策略,融合移动目标的光流信息和相机基于运动流的信息来提高场景深度和相机自运动估计的精度和效率。
Jul, 2017
本文提出了一种基于神经网络的视频分割方法,用于区分视频帧中独立运动的物体,并利用对象运动、外观和时间一致性等多个信息源,通过对数据进行训练得到模型,经过评估表明该模型在 DAVIS、Freiburg-Berkeley 运动分割数据集和 SegTrack 等数据集上表现良好。
Dec, 2017
提出了一种模块化网络,利用几何分析独立对象运动能从码流场中恢复,利用 3D 刚体转换对背景和多个刚体运动物体进行分割掩模并获得刚性运动分割的最佳性能,从而显着改善深度和场景流估计。
Jan, 2021
通过引入外观优化方法和视频流的时间一致性,我们提出了一种能够独立发现、分割和跟踪复杂视觉场景中独立移动物体的方法。该方法通过简单的选择机制识别准确的光流预测掩码,并基于示例信息优化有问题的掩码。我们的模型在多个视频分割基准上的性能表现验证了其在单个物体分割上的竞争力,并在更具挑战性的多物体分割问题上明显优于现有模型。最后,我们研究了将我们的模型用作逐帧 Segment Anything 模型的提示的好处。
Dec, 2023