本文介绍了一个用于评估多目标跟踪方法的基准测试框架,其中包含了约50个最先进的跟踪器的测试结果及其分析,旨在为推动这一领域的发展提供指导。
Apr, 2017
介绍了 OxUvA 数据集和基准,该数据集用于评估单目标跟踪算法,并对算法在具有平均长度大于两分钟且具有频繁目标对象消失的大规模序列中的定位和检测能力进行了评估。
Mar, 2018
该研究提出了一个大规模的RGB-T追踪视频基准数据集和一种新的基于图的方法,以学习强大的对象表示并实现多源数据融合的自适应融合,对其他最先进的追踪方法进行比较,并提供了对RGB-T对象追踪领域的新见解和潜在研究方向。
May, 2018
在本文中,我们提出了两种简单而有效的机制:角度估计和空间遮罩,以解决Siamese网络追踪器的旋转和背景干扰问题,并提出了一个名为Siam-BM的结果追踪器,它不仅显着提高了追踪性能,而且更重要的是保持了实时性。在VOT2017数据集上的评估表明,Siam-BM实现了0.335的EAO,这使其成为迄今为止表现最佳的实时追踪器。
Sep, 2018
该研究提出了一套针对高性能通用物体跟踪器设计的实用目标状态估计指南,根据这些指南设计了Fully Convolutional Siamese tracker++(SiamFC ++), 并在五个有挑战性的基准测试(OTB2015,VOT2018,LaSOT,GOT-10k,TrackingNet)上取得了最先进的性能。在大规模的TrackingNet数据集上,SiamFC ++ 实现了75.4的AUC得分,远高于实时要求。
Nov, 2019
本文对深度学习手段在视觉目标跟踪中的应用作了全面综述,包括常用的数据集、评估指标以及当前领先的跟踪器,并对它们进行了量化和定性分析,旨在为实践者在选择方案时提供指导和对未来方向进行探讨。
Dec, 2019
本文提出一种基于空时内存网络的新型追踪框架,利用历史信息以适应目标外观的变化,采用像素级相似度计算实现更精准的边界框生成,能够在真实时间下跟踪并优于先前所有最先进的实时方案。
Apr, 2021
本文提出了六种新的匹配操作符,从特征融合的角度而不是显式相似性学习来探索匹配操作符的选择,并且提出了二进制通道操作来搜索最佳匹配操作符的组合,最后将学习匹配网络插入到一个强大的基线跟踪器Ocean中,通过OTB100,LaSOT和TrackingNet三个数据集的对比实验,实现SRDCF的追踪精度提高到了67.2->71.4, 52.6->58.3和70.3->76.0,本文提出的跟踪器称为AutoMatch
Aug, 2021
该论文系统评估了90多个基于DCFs和深度Siamese Network的跟踪器在九个基准测试中的表现,讨论了这两种跟踪范例中相同和不同的挑战,并分析了它们的性能,最后给出了基于分析的挑战建议。
Dec, 2021
通过将光流算法与深度学习架构相结合,提出了一种混合策略来实现实时目标追踪,实现了在追踪精度和计算成本之间的理想平衡,相比其他最先进方法在 MOTA 上达到了 0.608 的结果,并且运行时间减少了一半,准确性基本相同。
Aug, 2023