实时多目标跟踪
基于 CBNetV2 和 Swin-B 的检测模型以及 MoCo-v2 的自监督外观模型,我们探索了一种新的 SOTA 方向,通过去除运动信息和 IoU 映射,取得了在 CVPR2023 WAD 研讨会的 MOTS 轨迹上的第一名以及 MOT 轨迹上的第二名的简单有效方法。
Aug, 2023
本研究提出了一种新的联合模型,将位置预测和嵌入关联相结合,以尽量从目标信息中提取更可靠的嵌入,从而提高数据关联的准确性和鲁棒性。实验结果表明,该方法在 MOT 挑战基准测试中的性能优于现有方法。
Apr, 2021
提出一种实例感知跟踪器,结合单个物体跟踪和卷积神经网络技术,用于多物体跟踪,提高跟踪准确性。在 MOT15 和 MOT16 基准测试上表现最佳。
Feb, 2019
本文提出了一种名为 DEFT 的高效的联合检测和跟踪模型,它使用外观匹配网络和对象检测网络共同学习,并添加了 LSTM 来捕获运动约束,DEFT 在应用于更具挑战性的跟踪数据时具有更高的健壮性。
Feb, 2021
引入基于深度学习的运动建模网络(DMM-Net)估算多个物体的运动参数,可用于联合检测和关联,以解决现有方法中深度模型过于依赖检测器、评估结果受检测器影响的问题。通过运用 DMM-Net 构建的 Omni-MOT 数据集,消除了检测器对多目标跟踪性能评估的影响,该方法取得了比传统方法更好的性能,速度更快。
Aug, 2020
该文提出了一种名为 MeMOT 的在线跟踪算法,基于 Transformer 框架实现目标检测、数据关联和多目标跟踪,并采用存储身份嵌入的大型时空记忆,能在长时间跨度后链接对象,经过基准数据集的测试,MeMOT 表现出极具竞争力的性能。
Mar, 2022
在多目标跟踪中,我们将目标关联任务视为一种端到端的上下文 ID 预测问题,并提出了一种简化版的 MOTIP 方法,通过直接预测当前帧中物体的 ID 标签来学习跟踪能力,从而避免了繁琐的手工算法。我们的方法在复杂场景中表现出色,并与其他基于 Transformer 的方法在 MOT17 上竞争力十足,展示出了显著的潜力,可作为未来研究的起点。
Mar, 2024
提出一种应用注意力度量编码来解决自动驾驶场景下多目标跟踪问题的方法,此方法通过软性数据关联来聚合所有物体检测的信息,从而使得模型能够在数据驱动的方式下推理出目标物体的遮挡情况并进行跟踪,实验结果表明该方法在规模较大的数据集上优于现有的视觉多目标跟踪技术。
Aug, 2020
本文提出了一种简单而有效的两阶段特征学习模型,以共同学习不同目标的单帧特征和多帧特征,从而在跟踪过程中实现鲁棒的数据关联。通过引入单帧特征学习模块和多帧特征学习模块,可以有效地关联相邻帧之间的目标和长时间丢失的目标。通过简单的数据关联逻辑,所提出的 VisualTracker 能够基于单帧特征和多帧特征进行鲁棒的多目标跟踪,实验结果表明该方法在 MOT17 和 MOT20 数据集上取得了显著的改进,并在 DanceTrack 数据集上达到了最先进的性能。
Nov, 2023
本研究提出了一种增强型的运动感知多目标跟踪系统,集成了不同对象的多种运动模式,并引入动态重连上下文模块、三维积分图像模块等手段,取得了比其他先进跟踪器更为优越的高效性能。
Sep, 2020