StrongSORT:重现 DeepSORT
本文介绍了一种新的鲁棒性强的跟踪器,该跟踪器可以将运动和外观信息、相机运动补偿和更准确的卡尔曼滤波状态向量相结合,其新的跟踪器 BoT-SORT 和 BoT-SORT-ReID 在 MOTChallenge 的 MOT17 和 MOT20 测试集上均排名第一。
Jun, 2022
文中介绍了一个基于 SORT 方法的多目标跟踪算法,通过整合外观信息能有效地降低物体遮挡时的身份切换次数,并在利用最近邻查询视觉外观空间建立测量轨迹关联时表现出竞争性的性能。
Mar, 2017
通过引入适应性的运动预测器,即 AM-SORT,将卡尔曼滤波器替换为转换器架构,我们提出了一种基于运动的多目标跟踪方法,从而解决了在涉及非线性运动和遮挡情景时估计未来物体位置的限制。AM-SORT 通过历史轨迹嵌入到转换器中,提取一系列边界框的时空特征,实现了与 DanceTrack 上最先进的跟踪器相当的性能,达到了 56.3 的 IDF1 和 55.6 的 HOTA。我们进行了大量实验证明了我们的方法在预测遮挡下的非线性运动方面的有效性。
Jan, 2024
我们介绍了 DeepMoveSORT,这是一个专门设计用于动态和非线性运动模式场景的多目标跟踪器。通过使用可学习的深度滤波器和一系列新提出的启发式方法,我们改善了基于运动的关联方法,从而提高了关联性能,并在三个具有非线性运动的数据集上超过了现有跟踪器的最新结果。我们的研究表明,使用可学习的滤波器代替 Kalman 滤波器,并结合基于外观的关联是实现强大的通用跟踪性能的关键。
Jun, 2024
基于 CBNetV2 和 Swin-B 的检测模型以及 MoCo-v2 的自监督外观模型,我们探索了一种新的 SOTA 方向,通过去除运动信息和 IoU 映射,取得了在 CVPR2023 WAD 研讨会的 MOTS 轨迹上的第一名以及 MOT 轨迹上的第二名的简单有效方法。
Aug, 2023
该论文介绍了 SFSORT,这是基于 MOT Challenge 数据集上的实验而开发的世界上速度最快的多目标跟踪系统。通过引入一种新的成本函数,称为边界框相似性指数,该系统实现了准确且计算效率高的跟踪器,消除了卡尔曼滤波器,从而减少了计算需求,并展示了场景特征对增强物体跟踪关联和改进跟踪后处理的影响。使用 2.2 GHz Intel Xeon CPU,在 MOT17 数据集上,该方法实现了 61.7% 的 HOTA 和 2242 Hz 的处理速度,在 MOT20 数据集上,实现了 60.9% 的 HOTA 和 304 Hz 的处理速度。该跟踪器的源代码、优化的物体检测模型和教程可以在 https://github.com/gitmehrdad/SFSORT 上获取。
Apr, 2024
本研究提出了一种基于子区域识别及匹配策略的 Mesh-SORT 多目标跟踪器,在 MOT17 数据集中相比基线实现了 3% 的分裂、7.2% 的标识符切换和 0.4% 的 MOTA 改进,适用于跟踪目标包括在复杂环境中的场景。
Feb, 2023
在本文中,我们提出了一种名为 MapTrack 的方法,利用概率图、预测图和协方差自适应卡尔曼滤波器的三个轻量级插件算法,通过增强经典跟踪器 DeepSORT 在拥挤和遮挡场景中的鲁棒性,实现在常用的多目标跟踪基准集(如 MOTS17 和 MOT20)上的最先进效果。
Feb, 2024