估计跟踪对象组中的动态流特征
本文提出了一种运动分割算法,通过使用光流方向代替完整的光流向量,以及使用概率模型自动估计观测到的独立运动数量,实现了对具有相似世界实际运动的像素进行聚类,从而有效避免了景深不同导致的深度相关分割。该系统在多个基准测试视频中表现出鲁棒性,特别是对包含具有相差很大深度的物体的复杂背景场景的运动分割。
Nov, 2015
通过无监督学习框架, 我们提出了一种将运动立体相机观察到的3D场景流分解为静止场景元素和动态物体运动的方法. 我们利用三个协同工作的网络来预测立体匹配、相机运动和残留流,并明确估计基于残留流和场景深度的动态物体的3D场景流。在KITTI数据集上的实验表明,我们的方法在光流和视觉里程计任务上优于其他现有算法。
Sep, 2019
本文提出了一种用于建模动态人体的单目摄像机表示形式,称为神经运动一致流,通过优化动态场景最小化总渲染误差来学习。核心是一种精心设计的优化方案,包括专用初始化步骤和约束估计的运动流动的运动一致性正则化。在多个数据集上,与基线和方法的变体进行了广泛的评估,定量和定性比较了所提出方法的功效和优点。
Jun, 2021
本文提出了一种名为 MotionTrack 的简单而有效的多目标跟踪器,它在统一框架中学习健壮的短期和长期运动,以将轨迹从短范围关联到长范围。通过在检测范例跟踪中嵌入 Interaction Module 和 Refind Module,在挑战性场景中,该方法在各种 MOT 指标上均实现了最先进的性能。
Mar, 2023
本文提出了一种基于时空动态模型的无监督光流估计方法,使用视图合成的自我监督学习来提供可靠的运动先验信息,利用邻帧的运动先验来改善光流估计中遮挡区域的监督,采用自我监督知识蒸馏来让模型理解物体在连续动态环境中的运动模式,实验证明该方法在无监督光流估计中取得了最先进的性能并具有记忆开销优势。
Apr, 2023
本研究提出了基于学习的多帧光流估计方法,使用3D Convolutional Gated Recurrent Units 和 spatiotemporal transformers 对长序列的场景动态进行建模,在遮挡的区域中获得较高的光流准确度。
Apr, 2023
提议一种基于视觉的方法,通过一组摄像机记录的原始视频自动发现3D移动目标的非线性动力学方程,通过目标跟踪模块、坐标变换学习模块和增强曲线支持的稀疏回归器组成,该方法有效处理与视觉数据相关的挑战。
Apr, 2024
我们介绍了DeepMoveSORT,这是一个专门设计用于动态和非线性运动模式场景的多目标跟踪器。通过使用可学习的深度滤波器和一系列新提出的启发式方法,我们改善了基于运动的关联方法,从而提高了关联性能,并在三个具有非线性运动的数据集上超过了现有跟踪器的最新结果。我们的研究表明,使用可学习的滤波器代替Kalman滤波器,并结合基于外观的关联是实现强大的通用跟踪性能的关键。
Jun, 2024
本研究解决了轨迹分类和回归中的信息损失及其他未充分研究的伪影问题。通过使用不同模态渲染为图像的合成轨迹,探讨了卷积神经网络的有效性,发现适当的图像分辨率与运动历史选择对模型表现至关重要,尤其在运动方向关键的应用中。
Sep, 2024