基于动态记忆网络的视觉追踪
本文提出了一种动态记忆网络来适应目标物体外观变化的模板适应方法,使用 LSTM 进行记忆控制,并通过注意力机制聚焦于潜在目标,应用门控残差模板学习控制检索记忆的数量,通过更新外部内存适应目标的外观变化,实验结果表明本文提出的 MemTrack 方法在 OTB 和 VOT 测试中表现良好,且实时速度为 50fps。
Mar, 2018
本文提出一种基于空时内存网络的新型追踪框架,利用历史信息以适应目标外观的变化,采用像素级相似度计算实现更精准的边界框生成,能够在真实时间下跟踪并优于先前所有最先进的实时方案。
Apr, 2021
通过引入关联性注意机制和全局表示记忆,我们提出了一种新的跟踪范式,该范式可以自适应地帮助搜索区域选择最相关的参考特征的历史信息,以减少冗余,提升跟踪性能。
Feb, 2024
提出了一种鲁棒的目标建模框架(ROMTrack),同时对固有模板和混合模板特征进行建模,通过结合目标对象的固有特征和搜索区域的引导来抑制有害干扰物,并使用混合模板提取与目标相关的特征,从而实现更强大的目标建模框架。
Aug, 2023
本文介绍了一种用于视频目标检测的空间 - 时间记忆网络,其核心是一种新颖的空间 - 时间记忆模块,用于模拟长期的时间外观和动态运动,并提出了一种新的 MatchTrans 模块来解决视频中的物体运动问题。作者的方法在 benchmark ImageNet VID 数据集上取得了最先进的结果,并且文章的实验表明了不同设计选择的贡献。
Dec, 2017
该研究提出了一种基于深度强化学习方法构建的模板选择策略的实时视觉追踪算法,该算法可有效应对模型更新导致的跟踪偏移问题,可在实时速度下以 43fps 跑动。
Feb, 2017
本文提出了一种基于梯度引导的 siamese 网络,通过前后向操作更新目标的模板,利用梯度中的区分信息,提高了视觉跟踪的表现,并使用模板泛化训练方法以更好地使用梯度信息并避免过度拟合。在最近的基准测试中,我们的方法表现优于其他现有的最先进的跟踪器。
Sep, 2019
本文提出了一种新的空间监督递归卷积神经网络,用于视觉对象跟踪,通过研究长短期记忆和区域信息的回归能力,结合卷积网络产生的高层视觉特征直接预测跟踪位置,相较于现有的深度学习跟踪器,我们的跟踪器在保持低计算成本的同时更加准确和鲁棒,实验结果表明在多个数据集上均表现优异,常常优于排名第二的跟踪器。
Jul, 2016
本文探讨了通过在计算机视觉系统中使用记忆来改进视频流中的物体检测的精度和减少计算时间的问题。我们通过交替使用传统的特征提取器和极其轻量级的提取器展示了在存在时间记忆的情况下,进行准确检测所需的计算量是非常小的。此外,我们展示了记忆容纳了足够的信息以应用于强化学习算法来学习自适应推断策略。我们的模型在 Imaget VID 2015 数据集上实现了移动方法中的最先进性能,并在 Pixel 3 手机上以 70+ FPS 的速度运行。
Mar, 2019