MOTRv2: 预训练目标检测器引导端到端多目标跟踪
本文介绍了一种名为 MOTR 的方法,它使用 track query 来建模整个视频中的跟踪实例,并引入了一种新的时域关系建模方法。实验结果表明,MOTR 在 HOTA 指标上比现有技术 ByteTrack 提高了 6.5%,在 MOT17 测试中,MOTR 的关联性能也胜过了 TrackFormer 和 TransTrack。
May, 2021
Co-MOT 是一种简单有效的方法,通过阴影概念的新颖合作竞争标签分配来促进端到端的多目标跟踪,使得标签分配策略更加平衡,以优越的性能获得追踪表现。
May, 2023
本文提出 MOTRv3,通过改进释放 - 获取监督策略来平衡检测和关联之间的不公平标签分配,同时设计伪标签蒸馏与轨迹组去噪来进一步提高检测与关联的监督效果,从而无需额外的检测网络,在 MOT17,DanceTrack 等各种基准测试中实现了卓越的性能。
May, 2023
该论文提出了一种高效、资源利用率高的端到端多目标跟踪模型 MO-YOLO,通过结合 YOLO 和 RT-DETR 模型的优势,构建了一种高效、轻量级的多目标跟踪网络,为多目标跟踪领域提供了新的机会。
Oct, 2023
提出了一种基于 Transformer 的多模态传感器输入的端到端多目标跟踪算法(MotionTrack),它由基于 Transformer 的数据关联(DA)模块和基于 Transformer 的查询增强模块组成,同时实现了多目标检测(MOD)。MotionTrack 及其变体在 nuScenes 数据集上获得更好的结果(AMOTA 得分为 0.55),与 AB3DMOT、CenterTrack 和概率 3D 卡尔曼滤波器等经典基线模型相比有着更好的表现。
Jun, 2023
提出了一种名为 Chained-Tracker(CTracker)的简单在线模型,它自然地将物体检测、特征提取和数据关联三个子任务集成到了一个端到端的解决方案中,并且采用了链式结构和成对关注回归技术,将 MOTA 记录提高到了 67.6 和 66.6,在 MOT16 和 MOT17 挑战数据集上实现了简单、快速、有效的多目标跟踪。
Jul, 2020
在多目标跟踪中,我们将目标关联任务视为一种端到端的上下文 ID 预测问题,并提出了一种简化版的 MOTIP 方法,通过直接预测当前帧中物体的 ID 标签来学习跟踪能力,从而避免了繁琐的手工算法。我们的方法在复杂场景中表现出色,并与其他基于 Transformer 的方法在 MOT17 上竞争力十足,展示出了显著的潜力,可作为未来研究的起点。
Mar, 2024
基于 CBNetV2 和 Swin-B 的检测模型以及 MoCo-v2 的自监督外观模型,我们探索了一种新的 SOTA 方向,通过去除运动信息和 IoU 映射,取得了在 CVPR2023 WAD 研讨会的 MOTS 轨迹上的第一名以及 MOT 轨迹上的第二名的简单有效方法。
Aug, 2023
本文介绍了一种新的鲁棒性强的跟踪器,该跟踪器可以将运动和外观信息、相机运动补偿和更准确的卡尔曼滤波状态向量相结合,其新的跟踪器 BoT-SORT 和 BoT-SORT-ReID 在 MOTChallenge 的 MOT17 和 MOT20 测试集上均排名第一。
Jun, 2022
本论文提出了一个新颖的基于提议的可学习框架来解决多目标跟踪问题,该框架类似于 Faster RCNN,通过图聚类方法产生跟踪提议,并通过可训练的图卷积网络 GCN 来打分,实验结果表明这种方法在两个公共基准测试上比最先进的方法都有明显的性能提升。
Mar, 2021