MotionTrack: 多目标跟踪的运动预测器学习
本文提出了一种名为 MotionTrack 的简单而有效的多目标跟踪器,它在统一框架中学习健壮的短期和长期运动,以将轨迹从短范围关联到长范围。通过在检测范例跟踪中嵌入 Interaction Module 和 Refind Module,在挑战性场景中,该方法在各种 MOT 指标上均实现了最先进的性能。
Mar, 2023
提出了一种基于运动的多目标跟踪方法,称为 ETTrack,它融合了变换器模型和时间卷积网络,利用历史运动信息预测个体物体的未来运动,并通过新颖的动量修正损失函数提高了预测准确性,实验证明 ETTrack 在 DanceTrack 和 SportsMOT 上取得了与最先进跟踪器竞争性的性能,分别达到 56.4%和 74.4%的 HOTA 指标。
May, 2024
为了解决现有跟踪数据集中存在的外观区分度差的问题,在另一篇文章中作者提出了 DanceTrack 数据集,我们在其中观察到与现有跟踪基准相比,目前最先进的几个跟踪器的表现明显下降,这表明 DanceTrack 为发展依赖于运动分析而非视觉差异的更多 MOT 算法提供了更好的平台。
Nov, 2021
提出了一种称为 “Tracking-by-Animation” 的跟踪框架,通过利用可微分的神经模型对多个对象进行跟踪,并在重构帧中动画化这些对象,从而实现了无需标记数据的端到端 MOT 学习。同时进一步提出了优化数据关联的 “Reprioritized Attentive Tracking” 模型。
Sep, 2018
本研究提出了一种增强型的运动感知多目标跟踪系统,集成了不同对象的多种运动模式,并引入动态重连上下文模块、三维积分图像模块等手段,取得了比其他先进跟踪器更为优越的高效性能。
Sep, 2020
本文提出一种基于 “Mask R-CNN” 的新型跟踪框架,称为 “instance-aware MOT”,能够联合考虑实例级特征和对象运动来在静态或移动摄像机中跟踪多个对象
Jun, 2020
本文提出了一种简单而有效的两阶段特征学习模型,以共同学习不同目标的单帧特征和多帧特征,从而在跟踪过程中实现鲁棒的数据关联。通过引入单帧特征学习模块和多帧特征学习模块,可以有效地关联相邻帧之间的目标和长时间丢失的目标。通过简单的数据关联逻辑,所提出的 VisualTracker 能够基于单帧特征和多帧特征进行鲁棒的多目标跟踪,实验结果表明该方法在 MOT17 和 MOT20 数据集上取得了显著的改进,并在 DanceTrack 数据集上达到了最先进的性能。
Nov, 2023
在多目标跟踪中,我们将目标关联任务视为一种端到端的上下文 ID 预测问题,并提出了一种简化版的 MOTIP 方法,通过直接预测当前帧中物体的 ID 标签来学习跟踪能力,从而避免了繁琐的手工算法。我们的方法在复杂场景中表现出色,并与其他基于 Transformer 的方法在 MOT17 上竞争力十足,展示出了显著的潜力,可作为未来研究的起点。
Mar, 2024
TrackFormer 是基于编码器 - 解码器变压器架构的端到端可训练的多目标追踪方法,利用注意力实现帧到帧的数据关联,以查询的形式自回归地跟踪现有轨迹并初始化新轨迹,能够实现目前最先进的多目标跟踪的性能。
Jan, 2021
本文研究了多目标跟踪领域中使用 Kalman 滤波器的传统方法在面对复杂非线性运动和遮挡等动态环境中的局限性,并探讨了替代 Kalman 滤波器的各种基于学习的运动模型。我们提出了一种名为 MambaTrack 的在线基于运动的跟踪器,它在挑战性的 DanceTrack 和 SportsMOT 数据集上优于所有现有的基于运动的跟踪器。此外,我们进一步利用状态空间模型在轨迹特征提取中的潜力,提出了一种名为 MambaTrack + 的跟踪器,在 DanceTrack 数据集上达到 56.1 HOTA 和 54.9 IDF1 的最新性能。
Mar, 2024