像素级别分布式物体跟踪
基于 Transformer 架构构建的学习几何 3D MOT 框架 3DMOTFormer,在进行跟踪检测双向图的基础上,通过边分类进行数据关联,并提出了一种新颖的在线训练策略,通过自回归和递归前向传播以及序列化批量优化来减少训练和推断之间的分布不匹配。
Aug, 2023
TrackFormer 是基于编码器 - 解码器变压器架构的端到端可训练的多目标追踪方法,利用注意力实现帧到帧的数据关联,以查询的形式自回归地跟踪现有轨迹并初始化新轨迹,能够实现目前最先进的多目标跟踪的性能。
Jan, 2021
TrajectoryFormer 是一种基于点云的 3D 多目标跟踪 (MOT) 框架,通过使用带有时间预测框和当前帧检测框的多个轨迹假设进行轨迹框关联,结合长期目标运动特征和短期目标外观特征来创建每个假设的特征嵌入,引入全局 - 局部交互模块来模拟所有假设的空间关系,从而达到 Waymo 3D MOT 基准测试中的最佳性能。
Jun, 2023
提出了一种基于 Transformer 的多模态传感器输入的端到端多目标跟踪算法(MotionTrack),它由基于 Transformer 的数据关联(DA)模块和基于 Transformer 的查询增强模块组成,同时实现了多目标检测(MOD)。MotionTrack 及其变体在 nuScenes 数据集上获得更好的结果(AMOTA 得分为 0.55),与 AB3DMOT、CenterTrack 和概率 3D 卡尔曼滤波器等经典基线模型相比有着更好的表现。
Jun, 2023
本文提出了 TransTrack,该方法利用 Transformer 架构解决多目标跟踪问题,采用对象特征作为当前帧的查询并引入一组学习对象查询以检测新对象,通过实现单次检测和跟踪建立了新的联合检测和跟踪范例,在 MOT17 和 MOT20 基准测试中达到了 74.5%和 64.5%的 MOTA,是一种优秀的多目标跟踪方法。
Dec, 2020
该研究旨在提高多对象追踪的性能,提出了一种基于低得分对象的相似性与轨迹的关联方法,并设计了一种名为 ByteTrack 的强大追踪器,在多个基准测试中实现了最先进的性能,其中包括 MOT17。
Oct, 2021
基于 CBNetV2 和 Swin-B 的检测模型以及 MoCo-v2 的自监督外观模型,我们探索了一种新的 SOTA 方向,通过去除运动信息和 IoU 映射,取得了在 CVPR2023 WAD 研讨会的 MOTS 轨迹上的第一名以及 MOT 轨迹上的第二名的简单有效方法。
Aug, 2023
本论文提出了一种新型基于 Transformer 的架构,用于全局多目标跟踪,通过对各帧图像上的物体特征进行编码,通过路径查询将其分组成轨迹,与目标检测器联合训练,可以实现对任意对象的跟踪,并在 MOT17 基准测试中实现了 75.3 的 MOTA 和 59.1 的 HOTA,超越了基于成对联想的基线,并在 TAO 数据集上得到显著的 7.7 跟踪 mAP 的提高。
Mar, 2022
该论文探讨了在 2D 多目标跟踪中的数据关联问题,并借鉴 3D 目标表示来解决这一问题,提出了一种新的基于 Pseudo 3D 标签的 2D MOT 方法 P3DTrack,通过视频数据自学习 3D 目标表示,并在 Waymo 开放数据集上达到了最新的最佳性能。
Jun, 2023
本文介绍了一种名为 MOTR 的方法,它使用 track query 来建模整个视频中的跟踪实例,并引入了一种新的时域关系建模方法。实验结果表明,MOTR 在 HOTA 指标上比现有技术 ByteTrack 提高了 6.5%,在 MOT17 测试中,MOTR 的关联性能也胜过了 TrackFormer 和 TransTrack。
May, 2021