基于元学习的多目标追踪
我们提出了一种简单、有效和通用的方法来预测行人属性,以支持通用的 Re-ID 嵌入。我们介绍了一个包含超过 80k 帧和 600 万行人 ID 的 AttMOT 大型综合数据集,用于行人跟踪。我们探索了不同的方法来融合 Re-ID 嵌入和行人属性,包括注意机制,希望能够促进属性辅助的多目标跟踪的发展。我们的方法 AAM 在 AttMOT 数据集上实验并在几个代表性的行人多目标跟踪基准中展示了其有效性和通用性。
Aug, 2023
本文综述了利用深度学习模型解决单摄像头视频的多目标跟踪任务的研究,总结了该任务中的四个主要步骤,并深入探讨了如何在每个步骤中利用深度学习。此外,还提供了对三个 MOTChallenge 数据集中所呈现的工作的完整实验比较,并确定了最优解方法之间的若干相似之处,提出了一些可能的未来研究方向。
Jul, 2019
本研究提出了一种基于中心点检测架构的叫做 FairMOT 的简单而有效的方法来解决目标检测和 Re-ID 之间的竞争问题,该方法在多目标跟踪方面表现出色,在多个公共数据集上均优于现有技术。
Apr, 2020
本研究提出了一种增强型的运动感知多目标跟踪系统,集成了不同对象的多种运动模式,并引入动态重连上下文模块、三维积分图像模块等手段,取得了比其他先进跟踪器更为优越的高效性能。
Sep, 2020
多目标跟踪在交通视频中是一个关键的研究领域,通过利用先进的机器学习算法,可以提高交通监控的准确性并促进道路安全措施。然而,现有的交通视频多目标跟踪数据集通常具有有限的实例或专注于单个类别,无法很好地模拟复杂交通场景中遇到的挑战。为了填补这一空白,我们介绍了 TrafficMOT,一个广泛的数据集,旨在涵盖具有复杂场景的多种交通情况。通过使用三种不同的设置来验证 TrafficMOT 所呈现的复杂性和挑战:完全监督、半监督和最近强大的零样本基础模型 Tracking Anything Model(TAM)。实验结果突出了该数据集的内在复杂性,强调其在交通监控和多目标跟踪领域推动发展的价值。
Nov, 2023
本文提出了一种名为 MotionTrack 的新型可学习动作预测器,其综合结合了两个层级的运动特征以增强时态动态的建模和促进个体物体准确的未来运动预测。
Jun, 2023
本文提出了一种名为 MotionTrack 的简单而有效的多目标跟踪器,它在统一框架中学习健壮的短期和长期运动,以将轨迹从短范围关联到长范围。通过在检测范例跟踪中嵌入 Interaction Module 和 Refind Module,在挑战性场景中,该方法在各种 MOT 指标上均实现了最先进的性能。
Mar, 2023
本文主要介绍了我们针对在复杂环境下的多目标跟踪挑战提出的方法,将其作为两个阶段的任务,包括人体检测和轨迹匹配,并具体设计了一个改进的人体检测器和一个位置匹配矩阵,使其在 DanceTrack 数据集上获得了高达 66.672 HOTA 和 93.971 MOTA 的成绩。
Dec, 2022
该研究提出了一个通用的、传感器无关的多模态多目标跟踪框架,通过在数据关联过程中编码点云的深度表示,使每种模态能够独立执行其职能以保证其可靠性,并通过新型的多模态融合模块进一步提高其精度。该框架在 KITTI 基准上的表现达到了最新水平。
Sep, 2019
我们提出了一个在视频帧上进行实例级视觉分析的有效框架,可以同时进行对象检测、实例分割和多对象跟踪。通过一种名为关联连接的新型结构,我们实现了协同多任务学习,在可学习的 CNN 中的检测、分割和跟踪任务之间建立了额外的连接。这些额外的连接允许信息在多个相关任务之间传播,同时使这些任务受益。我们在 KITTI MOTS 和 MOTS 挑战数据集上广泛评估了所提出的方法,并获得了令人鼓舞的结果。
Nov, 2023