深度追踪:使用循环神经网络看到超越视野
该论文介绍了一个基于循环神经网络的新型端到端框架,用于在复杂、动态且仅部分可观测的现实环境中跟踪和分类机器人的周围环境,并通过少量标记的数据使网络精通语义分类任务。
Apr, 2016
本文提出一种全面的端到端视频视觉跟踪方法,利用循环卷积神经网络代理与视频进行交互,并结合强化学习算法来学习不断的关注连续帧相关性和最大化在长期内的跟踪性能,实现了比现有跟踪基准更快速的状态 - of-the-art 性能。是第一个将卷积和循环网络与强化学习算法相结合的神经网络跟踪器。
Jan, 2017
本文提出了一种基于循环神经网络 (RNNs) 进行在线多目标跟踪的新方法,在真实场景下跟踪多个对象涉及许多挑战,包括 a)先验未知和时变目标数量,b)所有目标的连续状态估计,和 c)数据关联的离散组合问题。这项工作中提出的方案通过端到端学习的方式,解决了上述的所有问题,并在合成数据和真实数据上的实验表明取得了不错的效果,为未来研究方向奠定了基础。
Apr, 2016
本研究提出了一种基于 Transformer 机制的新型循环神经网络单元,该单元能够利用序列传感器录音中的时空相关性,并跟踪对象编码,以获取场景动态和回归速度,并根据提取的速度估计将循环神经网络的内存状态进行投影,以解决空间和时间不对齐的问题。
Jun, 2023
利用深度学习,我们提出了一种基于时间的 6 自由度跟踪方法,可在具有挑战性的真实世界数据集中实现最先进的性能,具有比现有最佳方法更准确、更鲁棒的抗遮挡性能,同时保持实时性能。在评估其效力时,我们在几个具有挑战性的 RGBD 序列上进行了评估,并通过一系列对象逐渐被遮挡的序列系统地评估了对遮挡的鲁棒性。最后,我们的方法完全是数据驱动的,不需要任何手动设计的特征:鲁棒跟踪是自动从数据中学习的。
Mar, 2017
本研究采用深度强化学习的端到端方法,结合 ConvNet-LSTM 函数的预测能力,提出了一种针对活动物体追踪的解决方案,并通过环境增强技术和定制的奖励函数进行训练。结果表明,在模拟器中训练的跟踪器能够在未知的物体移动路径、外观、背景和干扰物的情况下表现良好。实验还表明,单独在模拟器中训练的跟踪能力具有潜在的适用性和推广性,可以在真实情况下进行。
May, 2017
本文提出了一种新的空间监督递归卷积神经网络,用于视觉对象跟踪,通过研究长短期记忆和区域信息的回归能力,结合卷积网络产生的高层视觉特征直接预测跟踪位置,相较于现有的深度学习跟踪器,我们的跟踪器在保持低计算成本的同时更加准确和鲁棒,实验结果表明在多个数据集上均表现优异,常常优于排名第二的跟踪器。
Jul, 2016
本文提出了一种基于分层注意力循环模型的目标跟踪算法,该算法可以在视频中跟踪单个物体,并通过梯度方法进行完全可微分且纯数据驱动的训练。为了改进训练收敛性,在损失函数中增加了与跟踪相关的辅助任务项。该模型在 KTH 活动识别数据集和 KITTI 物体跟踪数据集上进行了评估。
Jun, 2017
Re3 是一款实时深度目标跟踪器,拥有轻量级的模型,通过添加时间信息到模型中来实现对待跟踪物体的鲁棒追踪,并在单向传输中同时更新外观模型,可高效地在 150 FPS 上追踪物体及应对瞬时遮挡。
May, 2017
本研究通过深度强化学习解决了目标跟踪和摄像头控制任务难以共同调整的问题,并在模拟器上训练的跟踪器表现出良好的泛化能力,且具备潜在的真实场景应用价值。
Aug, 2018