该论文提出了一种基于层次特征学习的视觉目标跟踪方法,通过使用两层卷积神经网络实现对多样化运动模式的特征离线学习,并通过域自适应模块实现对具体目标的个性化在线特征调整,提高了在复杂运动转换和外观变化情况下的视觉目标跟踪性能。
Nov, 2015
通过推导摄像机拍摄同一场景点的新型线性位置约束,得出一种直接的全局摄像机平移估计线性方法,解决了共线摄像机运动和弱图像关联的问题。最终线性公式不涉及场景点坐标,使其适用于大规模数据,采用基于 $L_1$ 范数的线性方程求解,使该系统对基础矩阵和特征对应的离群值更加鲁棒,在顺序捕获图像和无序互联网图像上进行实验,证明了其在鲁棒性,精度和效率方面的优势。
Mar, 2015
本文提出了一种基于仿射子空间模型的特征运动物体分割新框架,该方法通过稀疏 PCA 表示原始轨迹,通过自动搜索最近邻点的稀疏表达来实现局部子空间分离,并提出了一种误差估计来处理缺失数据问题,最后通过谱聚类方法将不同的运动分割出来,实验证明该方法在精度和运算时间上优于其他运动分割方法。
Jan, 2017
本文提出一种通过深度学习中的运动特征与外观特征结合的方法,以提升视觉跟踪的精度与稳定性。经过广泛实验验证,该方法在视觉跟踪中表现出了较高的性能。
Dec, 2016
本文提出了一种自适应的视觉目标跟踪方法,通过离线学习增强学习代理来决定何时在浅层或深层特征下对图像进行处理,从而实现在单个 CPU 上快速跟踪,同时为几乎 50% 的时间提供了 100 倍的速度提升。
Aug, 2017
本文提出了基于高斯混合模型和因子图框架的非线性最小二乘优化,用于处理三维空间中多个移动物体的跟踪问题,并展示了在 KITTI 跟踪数据集上实验的表现。
Aug, 2020
该论文提出了一种名为 CoTracker 的架构,它利用了光流和跟踪文献中的几个思想,基于变压器网络来模拟不同点在时间上的相关性,可以在一个视频中联合跟踪多个点,支持在任何时候添加新的跟踪点。该算法在几乎所有基准测试中都优于最先进的方法。
Jul, 2023
通过估计 3D 空间中的点轨迹以减轻由图像投影引起的问题,本研究提出了一种名为 SpatialTracker 的方法,使用单目深度估计器将 2D 像素提升为 3D,并使用三平面表示高效地呈现每帧的 3D 内容,并使用变换器进行迭代更新以估计 3D 轨迹,通过在 3D 空间中进行跟踪,充分利用几乎刚性的约束,同时学习将像素分成不同刚性部件的刚性嵌入,广泛的评估结果显示,我们的方法在定性和定量上都实现了最先进的跟踪性能,特别是在包括平面外旋转等具有挑战性的场景中。
Apr, 2024
探究深度特征在目标跟踪中的局限性及其与手工特征关系,提出融合深度与浅层特征的自适应方法以提高跟踪的鲁棒性和准确性,并在四个数据集上进行实验证明该方法相较于当前最优跟踪算法有 17% 的提升。
Apr, 2018
本文提出一种新的方法,在视觉目标追踪方面通过 3D 形态和位姿表达,结合可微分渲染技术优化一个新型的损失函数,取得了在三个数据集上追踪刚性物体方面的最新进展。
Apr, 2023