连接端到端和非端到端多目标跟踪之间的差距
基于 CBNetV2 和 Swin-B 的检测模型以及 MoCo-v2 的自监督外观模型,我们探索了一种新的 SOTA 方向,通过去除运动信息和 IoU 映射,取得了在 CVPR2023 WAD 研讨会的 MOTS 轨迹上的第一名以及 MOT 轨迹上的第二名的简单有效方法。
Aug, 2023
本论文提出 MOTRv2, 旨在通过一个预先训练好的物体定位器,启动端到端的多目标跟踪。利用额外的物体探测器来提高 MOTR 的性能,并排名第一,最终达到了先进的性能。
Nov, 2022
提出了一种基于 Transformer 的多模态传感器输入的端到端多目标跟踪算法(MotionTrack),它由基于 Transformer 的数据关联(DA)模块和基于 Transformer 的查询增强模块组成,同时实现了多目标检测(MOD)。MotionTrack 及其变体在 nuScenes 数据集上获得更好的结果(AMOTA 得分为 0.55),与 AB3DMOT、CenterTrack 和概率 3D 卡尔曼滤波器等经典基线模型相比有着更好的表现。
Jun, 2023
本文提出了一个允许在共享模型中学习目标检测和外观嵌入的 MOT 系统,并进一步提出了一个简单快速的联合方法。这两个组件的计算成本与以前的 MOT 系统相比显着降低,为未来实时 MOT 算法设计提供了一个简洁快速的基准线。与分离检测和嵌入(SDE)学习相比,其跟踪准确性相当。
Sep, 2019
在多目标跟踪中,我们将目标关联任务视为一种端到端的上下文 ID 预测问题,并提出了一种简化版的 MOTIP 方法,通过直接预测当前帧中物体的 ID 标签来学习跟踪能力,从而避免了繁琐的手工算法。我们的方法在复杂场景中表现出色,并与其他基于 Transformer 的方法在 MOT17 上竞争力十足,展示出了显著的潜力,可作为未来研究的起点。
Mar, 2024
本文介绍了一种名为 MOTR 的方法,它使用 track query 来建模整个视频中的跟踪实例,并引入了一种新的时域关系建模方法。实验结果表明,MOTR 在 HOTA 指标上比现有技术 ByteTrack 提高了 6.5%,在 MOT17 测试中,MOTR 的关联性能也胜过了 TrackFormer 和 TransTrack。
May, 2021
本文提出 MOTRv3,通过改进释放 - 获取监督策略来平衡检测和关联之间的不公平标签分配,同时设计伪标签蒸馏与轨迹组去噪来进一步提高检测与关联的监督效果,从而无需额外的检测网络,在 MOT17,DanceTrack 等各种基准测试中实现了卓越的性能。
May, 2023
本文提出一种基于 “Mask R-CNN” 的新型跟踪框架,称为 “instance-aware MOT”,能够联合考虑实例级特征和对象运动来在静态或移动摄像机中跟踪多个对象
Jun, 2020
提出了一种名为 Chained-Tracker(CTracker)的简单在线模型,它自然地将物体检测、特征提取和数据关联三个子任务集成到了一个端到端的解决方案中,并且采用了链式结构和成对关注回归技术,将 MOTA 记录提高到了 67.6 和 66.6,在 MOT16 和 MOT17 挑战数据集上实现了简单、快速、有效的多目标跟踪。
Jul, 2020
本文主要介绍了我们针对在复杂环境下的多目标跟踪挑战提出的方法,将其作为两个阶段的任务,包括人体检测和轨迹匹配,并具体设计了一个改进的人体检测器和一个位置匹配矩阵,使其在 DanceTrack 数据集上获得了高达 66.672 HOTA 和 93.971 MOTA 的成绩。
Dec, 2022