消除多目标跟踪中的曝光偏差和损失评估不匹配
本文采用无证明控制来解决多目标跟踪中的 ID 切换问题,并提出了简单有效的策略来处理外观信息的模糊匹配,实验结果表明该跟踪器在处理遮挡和快速移动引起的跟踪错误方面表现出优秀的效果和鲁棒性。
Jul, 2023
该研究提出了一个统一的多目标跟踪框架,该框架通过利用长期和短期线索处理 MOT 场景中的复杂情况,并考虑潜在的身份交换原因(开关器)的影响,并结合了多个线索来提高鲁棒性,最终在挑战性的 MOT 基准测试中实现了最先进的结果。
Jan, 2019
提出一种实例感知跟踪器,结合单个物体跟踪和卷积神经网络技术,用于多物体跟踪,提高跟踪准确性。在 MOT15 和 MOT16 基准测试上表现最佳。
Feb, 2019
本文综述了利用深度学习模型解决单摄像头视频的多目标跟踪任务的研究,总结了该任务中的四个主要步骤,并深入探讨了如何在每个步骤中利用深度学习。此外,还提供了对三个 MOTChallenge 数据集中所呈现的工作的完整实验比较,并确定了最优解方法之间的若干相似之处,提出了一些可能的未来研究方向。
Jul, 2019
本文提出了一种简单而有效的两阶段特征学习模型,以共同学习不同目标的单帧特征和多帧特征,从而在跟踪过程中实现鲁棒的数据关联。通过引入单帧特征学习模块和多帧特征学习模块,可以有效地关联相邻帧之间的目标和长时间丢失的目标。通过简单的数据关联逻辑,所提出的 VisualTracker 能够基于单帧特征和多帧特征进行鲁棒的多目标跟踪,实验结果表明该方法在 MOT17 和 MOT20 数据集上取得了显著的改进,并在 DanceTrack 数据集上达到了最先进的性能。
Nov, 2023
提出了一种称为 “Tracking-by-Animation” 的跟踪框架,通过利用可微分的神经模型对多个对象进行跟踪,并在重构帧中动画化这些对象,从而实现了无需标记数据的端到端 MOT 学习。同时进一步提出了优化数据关联的 “Reprioritized Attentive Tracking” 模型。
Sep, 2018
基于 CBNetV2 和 Swin-B 的检测模型以及 MoCo-v2 的自监督外观模型,我们探索了一种新的 SOTA 方向,通过去除运动信息和 IoU 映射,取得了在 CVPR2023 WAD 研讨会的 MOTS 轨迹上的第一名以及 MOT 轨迹上的第二名的简单有效方法。
Aug, 2023
本文提出一种基于 “Mask R-CNN” 的新型跟踪框架,称为 “instance-aware MOT”,能够联合考虑实例级特征和对象运动来在静态或移动摄像机中跟踪多个对象
Jun, 2020
本研究提出了一种增强型的运动感知多目标跟踪系统,集成了不同对象的多种运动模式,并引入动态重连上下文模块、三维积分图像模块等手段,取得了比其他先进跟踪器更为优越的高效性能。
Sep, 2020
本文提出了一种名为 MotionTrack 的简单而有效的多目标跟踪器,它在统一框架中学习健壮的短期和长期运动,以将轨迹从短范围关联到长范围。通过在检测范例跟踪中嵌入 Interaction Module 和 Refind Module,在挑战性场景中,该方法在各种 MOT 指标上均实现了最先进的性能。
Mar, 2023