MO-YOLO: 基于 YOLO 和 MOTR 的端到端多目标跟踪方法
提出了一种名为 DEYOv3 的全新端到端实时目标检测模型,采用逐步训练方法,设计灵活、训练成本低,速度和准确性均优于现有的实时目标检测器。
Sep, 2023
提出了一种基于 Transformer 的多模态传感器输入的端到端多目标跟踪算法(MotionTrack),它由基于 Transformer 的数据关联(DA)模块和基于 Transformer 的查询增强模块组成,同时实现了多目标检测(MOD)。MotionTrack 及其变体在 nuScenes 数据集上获得更好的结果(AMOTA 得分为 0.55),与 AB3DMOT、CenterTrack 和概率 3D 卡尔曼滤波器等经典基线模型相比有着更好的表现。
Jun, 2023
本文介绍了一种名为 MOTR 的方法,它使用 track query 来建模整个视频中的跟踪实例,并引入了一种新的时域关系建模方法。实验结果表明,MOTR 在 HOTA 指标上比现有技术 ByteTrack 提高了 6.5%,在 MOT17 测试中,MOTR 的关联性能也胜过了 TrackFormer 和 TransTrack。
May, 2021
本论文提出 MOTRv2, 旨在通过一个预先训练好的物体定位器,启动端到端的多目标跟踪。利用额外的物体探测器来提高 MOTR 的性能,并排名第一,最终达到了先进的性能。
Nov, 2022
引入基于深度学习的运动建模网络(DMM-Net)估算多个物体的运动参数,可用于联合检测和关联,以解决现有方法中深度模型过于依赖检测器、评估结果受检测器影响的问题。通过运用 DMM-Net 构建的 Omni-MOT 数据集,消除了检测器对多目标跟踪性能评估的影响,该方法取得了比传统方法更好的性能,速度更快。
Aug, 2020
通过逐步训练方法,我们介绍了第一个实时端到端的目标检测模型 DEYO,它利用了纯卷积结构编码器,并且在速度和准确性上超过了现有的实时目标检测器。此外,通过仅使用单个 8GB RTX 4060 GPU,DEYO 系列可以在 COCO 数据集上完成第二阶段的训练,从而显著降低了训练成本。
Feb, 2024
使用 Transformer 和时空嵌入的 MO3TR 方法,具有空间和时间注意机制,无需显式的数据聚类模块或任何启发式方法,成功解决了多物体追踪过程中的诸多挑战,表现方面同多个 popular MOT 图像和视频基准测试的现有最先进技术几乎相当或更好。
Mar, 2021
本文综述了利用深度学习模型解决单摄像头视频的多目标跟踪任务的研究,总结了该任务中的四个主要步骤,并深入探讨了如何在每个步骤中利用深度学习。此外,还提供了对三个 MOTChallenge 数据集中所呈现的工作的完整实验比较,并确定了最优解方法之间的若干相似之处,提出了一些可能的未来研究方向。
Jul, 2019
通过消除非极大值抑制(NMS)的依赖性和综合优化 YOLOs 的各个组件,本研究提出了一种新一代的实时端到端目标检测模型 YOLOv10,其在性能和效率方面均取得了最新的成果。
May, 2024
本文提出了一个允许在共享模型中学习目标检测和外观嵌入的 MOT 系统,并进一步提出了一个简单快速的联合方法。这两个组件的计算成本与以前的 MOT 系统相比显着降低,为未来实时 MOT 算法设计提供了一个简洁快速的基准线。与分离检测和嵌入(SDE)学习相比,其跟踪准确性相当。
Sep, 2019