Re3:基于实时循环回归网络的通用物体视觉跟踪
该研究提出了一种基于深度强化学习方法构建的模板选择策略的实时视觉追踪算法,该算法可有效应对模型更新导致的跟踪偏移问题,可在实时速度下以 43fps 跑动。
Feb, 2017
本文提出了一种新的端到端的物体跟踪方法,它直接从原始传感器输入到物体的轨迹映射,而无需任何特征工程或系统识别模型。该方法基于深度学习和循环神经网络的序列建模,通过一种输入丢弃的学习方法,能够在无监督的情况下处理包括遮挡物在内的传感器数据,学习跟踪许多动态物体,适用于机器人类应用中常见的 2D 激光数据跟踪任务。
Feb, 2016
追踪物体的六维姿态,在物体本身或观察相机移动时,对许多机器人学和增强现实应用非常重要。在跟踪任务的严格时间限制下,我们提出了将物体追踪简化为加强点云(仅深度)对齐任务的方法。
Jul, 2023
本文提出了一种循环自回归网络(RAN),它是一种时间生成建模框架,可以可靠地将物体轨迹与每个视频帧中的检测相关联,并通过内、外存储器来处理多个物体的外貌和运动动态。实验证明,我们的追踪方法在高度拥挤和遮挡的场景中具有鲁棒性,并在 MOT2015 和 2016 数据集上取得了排名最高的结果。
Nov, 2017
本文提出了一种基于循环神经网络 (RNNs) 进行在线多目标跟踪的新方法,在真实场景下跟踪多个对象涉及许多挑战,包括 a)先验未知和时变目标数量,b)所有目标的连续状态估计,和 c)数据关联的离散组合问题。这项工作中提出的方案通过端到端学习的方式,解决了上述的所有问题,并在合成数据和真实数据上的实验表明取得了不错的效果,为未来研究方向奠定了基础。
Apr, 2016
本文提出一种全面的端到端视频视觉跟踪方法,利用循环卷积神经网络代理与视频进行交互,并结合强化学习算法来学习不断的关注连续帧相关性和最大化在长期内的跟踪性能,实现了比现有跟踪基准更快速的状态 - of-the-art 性能。是第一个将卷积和循环网络与强化学习算法相结合的神经网络跟踪器。
Jan, 2017
我们提出了一个基于深度回归和验证网络的新型长期跟踪框架,其中使用对象感知特征融合和区域提案网络设计了离线训练的回归模型,该模型可以有效生成候选框并估计它们的相似度分数,在线实时更新以适应外表上的变化。通过结合相似度和分类分数,我们的跟踪器可以准确确定目标的缺席并进行图像全局重检测以成功捕获目标。
Sep, 2018
本研究提出了一种在线多目标跟踪方法,通过收集检测和跟踪的输出,利用基于完全卷积神经网络的新型评分函数处理不可靠检测,并采用深度学习出的外貌特征来提高跟踪的识别能力。该方法在人员跟踪基准测试中达到了实时和最先进的性能。
Sep, 2018
本文提出了一种新的空间监督递归卷积神经网络,用于视觉对象跟踪,通过研究长短期记忆和区域信息的回归能力,结合卷积网络产生的高层视觉特征直接预测跟踪位置,相较于现有的深度学习跟踪器,我们的跟踪器在保持低计算成本的同时更加准确和鲁棒,实验结果表明在多个数据集上均表现优异,常常优于排名第二的跟踪器。
Jul, 2016