ByteTrack: 通过关联每个检测框进行多目标跟踪
本文介绍了一种新的鲁棒性强的跟踪器,该跟踪器可以将运动和外观信息、相机运动补偿和更准确的卡尔曼滤波状态向量相结合,其新的跟踪器 BoT-SORT 和 BoT-SORT-ReID 在 MOTChallenge 的 MOT17 和 MOT20 测试集上均排名第一。
Jun, 2022
在多目标跟踪中,我们将目标关联任务视为一种端到端的上下文 ID 预测问题,并提出了一种简化版的 MOTIP 方法,通过直接预测当前帧中物体的 ID 标签来学习跟踪能力,从而避免了繁琐的手工算法。我们的方法在复杂场景中表现出色,并与其他基于 Transformer 的方法在 MOT17 上竞争力十足,展示出了显著的潜力,可作为未来研究的起点。
Mar, 2024
本文提出一种基于 “Mask R-CNN” 的新型跟踪框架,称为 “instance-aware MOT”,能够联合考虑实例级特征和对象运动来在静态或移动摄像机中跟踪多个对象
Jun, 2020
基于 CBNetV2 和 Swin-B 的检测模型以及 MoCo-v2 的自监督外观模型,我们探索了一种新的 SOTA 方向,通过去除运动信息和 IoU 映射,取得了在 CVPR2023 WAD 研讨会的 MOTS 轨迹上的第一名以及 MOT 轨迹上的第二名的简单有效方法。
Aug, 2023
本篇论文提出了一种创新而有效的追踪方法 TrackletNet Tracker (TNT),它将时间和外观信息结合在一起作为一个统一的框架来处理多目标追踪 (MOT) 的挑战,并相比其他最先进方法,在 MOT16 和 MOT17 基准数据集上取得了令人满意的结果。
Nov, 2018
本文提出了一个允许在共享模型中学习目标检测和外观嵌入的 MOT 系统,并进一步提出了一个简单快速的联合方法。这两个组件的计算成本与以前的 MOT 系统相比显着降低,为未来实时 MOT 算法设计提供了一个简洁快速的基准线。与分离检测和嵌入(SDE)学习相比,其跟踪准确性相当。
Sep, 2019
在本文中,我们提出了一种名为 MapTrack 的方法,利用概率图、预测图和协方差自适应卡尔曼滤波器的三个轻量级插件算法,通过增强经典跟踪器 DeepSORT 在拥挤和遮挡场景中的鲁棒性,实现在常用的多目标跟踪基准集(如 MOTS17 和 MOT20)上的最先进效果。
Feb, 2024
提出了一种简单但健壮的框架,将物体检测和关联作为从配对噪声框到配对真实框的一致去噪扩散过程来联合建模,通过新颖的渐进去噪扩散策略大幅提升了跟踪器的效果,在推理中,模型通过灵活的一步或多步去噪扩散过程,将一组随机生成的配对框优化为检测和跟踪结果,大范围实验证明了该方法在多个 MOT 基准测试上与当前最先进的方法相当。
Aug, 2023
提出了一种基于 Transformer 的多模态传感器输入的端到端多目标跟踪算法(MotionTrack),它由基于 Transformer 的数据关联(DA)模块和基于 Transformer 的查询增强模块组成,同时实现了多目标检测(MOD)。MotionTrack 及其变体在 nuScenes 数据集上获得更好的结果(AMOTA 得分为 0.55),与 AB3DMOT、CenterTrack 和概率 3D 卡尔曼滤波器等经典基线模型相比有着更好的表现。
Jun, 2023
本论文提出了一种名为 HIT 的分层 IoU 跟踪框架,通过利用 tracklet 间隔作为先验,实现统一的分层跟踪,并利用 IoU 进行关联,舍弃了繁重的外观模型、复杂的辅助线索和基于学习的关联模块,解决了关于目标尺寸、摄像机运动和分层线索的三个不一致问题,并在四个数据集上取得了良好的性能,为未来的跟踪方法设计提供了强大的基线,并证明了 HIT 可以与其他解决方案无缝集成。
Jun, 2024