基于时间上下文的真实世界视觉跟踪
本文提出了一种全面利用时间上下文进行航空追踪的框架,名为 TCTrack,该框架在特征提取和相似度图优化方面使用了时间上下文。实验表明,TCTrack 在四个航空追踪基准测试数据集上的效果令人印象深刻,并且在 NVIDIA Jetson AGX Xavier 上实现了高达 27 FPS 的高速。
Mar, 2022
本文提出了一个基于 transformer 的视频物体跟踪器,在 Siamese-like 跟踪管道中,编码器在模板中注入了基于注意力机制的特征强化以增强模型生成质量,解码器传递上一个模板的跟踪线索到当前帧以方便目标搜索,结果本方法作为一种最先进的记录在普遍跟踪基准上获得了成功。
Mar, 2021
我们提出了 ACTrack,一个新的跟踪框架,通过冻结参数来保留预训练的 Transformer 骨干的质量和能力,并使用可训练的轻量级加法网络来建模跟踪中的时空关系,实验结果证明 ACTrack 能够在训练效率和跟踪性能之间取得平衡。
Feb, 2024
本文基于卷积通道缩减技术将图像分类特征应用于视觉跟踪领域,提出了一种有效而实时的视觉跟踪器,不仅提取了目标的有用信息,而且大幅提高了跟踪速度,同时在两个基准测试中实现了最新的准确性。
Jan, 2017
本文提出了一种端到端的卷积神经网络跟踪框架,既可以有效地学习卷积特征,又可实现跟踪过程,对于实时跟踪效果较佳并在多个基准跟踪数据集上达到了最佳结果。
Nov, 2017
提出了一种新型的时域自适应 RGBT 跟踪框架 TATrack,该框架通过在线更新模板和跨模式交互,综合利用时空信息和多模态信息进行目标定位,并在三个常用 RGBT 跟踪基准上取得了最先进的性能。
Jan, 2024
本研究提出了一种基于 Progressive Context Encoding 的可变模板追踪,利用空间和时间上下文预测物体运动轨迹,同时探索了多种上下文的建模方法并在多个基准数据集上获得了最先进的性能。
Oct, 2022
在本文中,我们提出了一种基于上下文感知的跟踪模型,该模型是通过利用整个序列中的信息联合元更新两个分支来优化表示空间上的跟踪器,实现对外观变化的自适应。我们采用上下文聚合模块融合历史帧中的信息,然后使用上下文感知模块为跟踪器的两个分支学习亲和向量。通过使用专用的元学习方案,在有限的训练样本下,该跟踪方法在 VOT2018 上实现了 0.514 的 EAO 评分,40FPS 的速度,表明了它提高了潜在跟踪器的准确性和鲁棒性,并且在速度上有小幅下降。
Apr, 2022