MoD2T: 模型数据驱动的运动 - 静态物体跟踪方法
提出了一种基于 Transformer 的多模态传感器输入的端到端多目标跟踪算法(MotionTrack),它由基于 Transformer 的数据关联(DA)模块和基于 Transformer 的查询增强模块组成,同时实现了多目标检测(MOD)。MotionTrack 及其变体在 nuScenes 数据集上获得更好的结果(AMOTA 得分为 0.55),与 AB3DMOT、CenterTrack 和概率 3D 卡尔曼滤波器等经典基线模型相比有着更好的表现。
Jun, 2023
引入基于深度学习的运动建模网络(DMM-Net)估算多个物体的运动参数,可用于联合检测和关联,以解决现有方法中深度模型过于依赖检测器、评估结果受检测器影响的问题。通过运用 DMM-Net 构建的 Omni-MOT 数据集,消除了检测器对多目标跟踪性能评估的影响,该方法取得了比传统方法更好的性能,速度更快。
Aug, 2020
该文章提出了一种新型的多任务学习系统,将外观和运动线索相结合,以更好地对环境进行语义推理,其中介绍了一种联合车辆检测和运动分割的统一架构,并使用 KITTI 数据集评估了该方法,在运动检测任务上的性能优于其他利用运动线索方法 21.5%,在通用物体分割任务上表现与现有的无监督方法相当,其中一个有趣的结论是运动分割与车辆检测的联合训练有益于运动分割
Sep, 2017
该论文提出了一个简单实时的 3D 多目标跟踪系统,使用 3D Kalman 滤波器和匈牙利算法进行状态估计和数据关联,并提出了新的 3D MOT 评估工具和新的评估指标,可在 KITTI 和 nuScenes 数据集上获得最先进的性能和最快的速度。
Jul, 2019
本文综述了利用深度学习模型解决单摄像头视频的多目标跟踪任务的研究,总结了该任务中的四个主要步骤,并深入探讨了如何在每个步骤中利用深度学习。此外,还提供了对三个 MOTChallenge 数据集中所呈现的工作的完整实验比较,并确定了最优解方法之间的若干相似之处,提出了一些可能的未来研究方向。
Jul, 2019
该研究提出了一个通用的、传感器无关的多模态多目标跟踪框架,通过在数据关联过程中编码点云的深度表示,使每种模态能够独立执行其职能以保证其可靠性,并通过新型的多模态融合模块进一步提高其精度。该框架在 KITTI 基准上的表现达到了最新水平。
Sep, 2019
本研究提出了一种增强型的运动感知多目标跟踪系统,集成了不同对象的多种运动模式,并引入动态重连上下文模块、三维积分图像模块等手段,取得了比其他先进跟踪器更为优越的高效性能。
Sep, 2020
基于 Transformer 架构构建的学习几何 3D MOT 框架 3DMOTFormer,在进行跟踪检测双向图的基础上,通过边分类进行数据关联,并提出了一种新颖的在线训练策略,通过自回归和递归前向传播以及序列化批量优化来减少训练和推断之间的分布不匹配。
Aug, 2023
提出了一种称为 “Tracking-by-Animation” 的跟踪框架,通过利用可微分的神经模型对多个对象进行跟踪,并在重构帧中动画化这些对象,从而实现了无需标记数据的端到端 MOT 学习。同时进一步提出了优化数据关联的 “Reprioritized Attentive Tracking” 模型。
Sep, 2018
基于 CBNetV2 和 Swin-B 的检测模型以及 MoCo-v2 的自监督外观模型,我们探索了一种新的 SOTA 方向,通过去除运动信息和 IoU 映射,取得了在 CVPR2023 WAD 研讨会的 MOTS 轨迹上的第一名以及 MOT 轨迹上的第二名的简单有效方法。
Aug, 2023