理解和诊断视觉跟踪系统
本文考虑了 2D 表现模型在视觉目标跟踪中的应用,针对其处理阶段的不同阶段给出分类,并就其从理论和实用角度进行了分析和讨论;本文对此问题未来研究提出了几点挑战。
Mar, 2013
本文提出了一种单目标跟踪器绩效评估的新方法,在数据集、性能指标和评估系统方面对其作出要求。同时,引入了基于排名的方法,并构建了一个多方平台的评估系统,使其成为至今最具精密注释的数据集之一。此方法在 VOT2014 挑战赛上得到了应用,并对数据集进行了全面分析,提出了可行的性能可视化技术。
Mar, 2015
本研究针对视觉跟踪评估中的性能指标缺乏共识的问题,重新审视了当前流行的性能指标和追踪器表现可视化技术,通过理论和实验分析,提出了准确度和鲁棒性两个指标,对追踪器的性能进行综合评估,以推动追踪器评估方法的同质化。
Feb, 2015
本文提出了一种新的视觉目标跟踪模型,通过知识蒸馏和强化学习训练了一个紧凑的学生模型,可以从其他跟踪器中传输和压缩跟踪知识,并利用在线学习的评估措施,建立一个快速、简单且有效的跟踪机制使得最终跟踪器与实时最先进的跟踪器具有相同的竞争力。
Jul, 2020
本文对深度学习手段在视觉目标跟踪中的应用作了全面综述,包括常用的数据集、评估指标以及当前领先的跟踪器,并对它们进行了量化和定性分析,旨在为实践者在选择方案时提供指导和对未来方向进行探讨。
Dec, 2019
基于首帧的初始外观,视觉目标跟踪旨在定位每一帧的目标对象。根据输入的不同类型,跟踪任务可分为 RGB 跟踪和 RGB+X(如 RGB+N 和 RGB+D)跟踪。本文提出了一个统一多种跟踪任务的通用框架,称之为 OneTracker。OneTracker 首先对称为 Foundation Tracker 的 RGB 跟踪器进行大规模预训练,使其具备估计目标对象位置的稳定能力,然后将其他模态信息视为提示,在 Foundation Tracker 的基础上构建 Prompt Tracker。通过冻结 Foundation Tracker 并仅调整一些额外可训练参数,Prompt Tracker 抑制了 Foundation Tracker 的强定位能力,并在下游的 RGB+X 跟踪任务上实现了参数高效微调。为了评估我们的通用框架 OneTracker 的有效性,我们在 11 个基准测试中对 6 个常见的跟踪任务进行了大量实验,结果显示 OneTracker 优于其他模型并取得了最先进的性能。
Mar, 2024
研究深度神经网络在视觉追踪中是否具有物体外观和运动特征模拟的能力,并提出了一种追踪对象基于动态线索电路模型,并将之加到基于转换器的体系结构进行追踪,使其具有更好的普遍性和鲁棒性。
May, 2021
在本文中,我们提出了一种基于上下文感知的跟踪模型,该模型是通过利用整个序列中的信息联合元更新两个分支来优化表示空间上的跟踪器,实现对外观变化的自适应。我们采用上下文聚合模块融合历史帧中的信息,然后使用上下文感知模块为跟踪器的两个分支学习亲和向量。通过使用专用的元学习方案,在有限的训练样本下,该跟踪方法在 VOT2018 上实现了 0.514 的 EAO 评分,40FPS 的速度,表明了它提高了潜在跟踪器的准确性和鲁棒性,并且在速度上有小幅下降。
Apr, 2022
我们设计了一种有效的视觉 - 语言表示方法,同时为追踪问题构建了一个大型带有语言注释的数据库。通过引入异构架构搜索和模态混合器等核心技术,以及对不同模态之间进行对比损失的引入,我们能够显著改善追踪问题的解决方案,并期望将更多注意力转向视觉 - 语言追踪,为未来的多样化多模态消息追踪开辟更多可能性。
Jul, 2023