MOTRv3: 基于 Release-Fetch 监督的端到端多目标跟踪
本论文提出 MOTRv2, 旨在通过一个预先训练好的物体定位器,启动端到端的多目标跟踪。利用额外的物体探测器来提高 MOTR 的性能,并排名第一,最终达到了先进的性能。
Nov, 2022
本文介绍了一种名为 MOTR 的方法,它使用 track query 来建模整个视频中的跟踪实例,并引入了一种新的时域关系建模方法。实验结果表明,MOTR 在 HOTA 指标上比现有技术 ByteTrack 提高了 6.5%,在 MOT17 测试中,MOTR 的关联性能也胜过了 TrackFormer 和 TransTrack。
May, 2021
Co-MOT 是一种简单有效的方法,通过阴影概念的新颖合作竞争标签分配来促进端到端的多目标跟踪,使得标签分配策略更加平衡,以优越的性能获得追踪表现。
May, 2023
我们提出了一种数据驱动的方法,使用卷积神经网络(CNN)在一个检测跟踪框架中进行数据关联来进行在线多目标跟踪(MOT)。我们的解决方案学习如何在数据和图像之间组合线索来解决关联问题,可以在处理复杂情况下准确跟踪物体并获得优异结果。
May, 2019
提出了一种称为 “Tracking-by-Animation” 的跟踪框架,通过利用可微分的神经模型对多个对象进行跟踪,并在重构帧中动画化这些对象,从而实现了无需标记数据的端到端 MOT 学习。同时进一步提出了优化数据关联的 “Reprioritized Attentive Tracking” 模型。
Sep, 2018
基于 CBNetV2 和 Swin-B 的检测模型以及 MoCo-v2 的自监督外观模型,我们探索了一种新的 SOTA 方向,通过去除运动信息和 IoU 映射,取得了在 CVPR2023 WAD 研讨会的 MOTS 轨迹上的第一名以及 MOT 轨迹上的第二名的简单有效方法。
Aug, 2023
提出了一种名为 Chained-Tracker(CTracker)的简单在线模型,它自然地将物体检测、特征提取和数据关联三个子任务集成到了一个端到端的解决方案中,并且采用了链式结构和成对关注回归技术,将 MOTA 记录提高到了 67.6 和 66.6,在 MOT16 和 MOT17 挑战数据集上实现了简单、快速、有效的多目标跟踪。
Jul, 2020
本论文提出了一个新颖的基于提议的可学习框架来解决多目标跟踪问题,该框架类似于 Faster RCNN,通过图聚类方法产生跟踪提议,并通过可训练的图卷积网络 GCN 来打分,实验结果表明这种方法在两个公共基准测试上比最先进的方法都有明显的性能提升。
Mar, 2021
一个名为 ADA-Track 的新颖框架对多视角相机的 3D 多目标跟踪进行端到端的研究,利用可学习的数据关联模块和基于边缘增强的交叉注意力,同时结合检测和数据关联任务,以实现更好的效果。
May, 2024
本文提出了一种基于 LiDAR 的三维多目标跟踪框架 FlowMOT,该框架结合了点运动信息和传统的匹配算法,通过使用匈牙利算法生成最优匹配关系来完成跟踪任务。实验结果表明,该方法胜过最近的端到端方法,并且在各种速度场景下可以稳定地工作。
Dec, 2020