从自动注释中学习多目标跟踪与分割
本论文将多目标跟踪扩展到多目标跟踪和分割(MOTS)。为此,我们使用半自动注释程序为两个现有的跟踪数据集创建密集的像素级注释。通过我们的新注释,我们提出了一个新的基线方法,该方法使用单个卷积网络共同处理检测、跟踪和分割。我们演示了我们数据集的价值,在 MOTS 注释上训练可以提高性能,我们相信我们的数据集、指标和基线方法将成为开发超越 2D 边界框的多目标跟踪方法的宝贵资源。
Feb, 2019
我们提出了一个在视频帧上进行实例级视觉分析的有效框架,可以同时进行对象检测、实例分割和多对象跟踪。通过一种名为关联连接的新型结构,我们实现了协同多任务学习,在可学习的 CNN 中的检测、分割和跟踪任务之间建立了额外的连接。这些额外的连接允许信息在多个相关任务之间传播,同时使这些任务受益。我们在 KITTI MOTS 和 MOTS 挑战数据集上广泛评估了所提出的方法,并获得了令人鼓舞的结果。
Nov, 2023
本文提出了一种新的多对象跟踪方法,该方法利用无序的 2D 点云表示来生成实例嵌入,从随机选择的点中学习辨别实例嵌入,利用多种信息数据模态来丰富点特征,基于此建立了在线 MOTS 系统 PointTrack,在三个数据集上进行评估,并构建了一个更具挑战性的 MOTS 数据集 APOLLO MOTS。
Jul, 2020
本文介绍了一种有效的框架以及注释轨迹的方法,用于生成具有前所未有的规模的 MOT 数据集,并通过验证表明我们的方法比现有技术更加准确和高效。此外,我们还 crowdsourcing 了 PathTrack 数据集,这个大规模的数据集将对物体追踪及目标识别领域产生重要影响,证明了这个数据集的价值,并且用已有的数据训练之后另行测评的结果证明了我们的方法的有效性。
Mar, 2017
提出了一种自监督的重构 MOTS 框架,并在 CVPR 2020 的 MOTS 挑战中获得了第一名,该框架利用数据关联,引入阈值,通过短期轨迹训练外观编码器,达到对 MOTS 结果的精细化改进。
Jul, 2020
基于 CBNetV2 和 Swin-B 的检测模型以及 MoCo-v2 的自监督外观模型,我们探索了一种新的 SOTA 方向,通过去除运动信息和 IoU 映射,取得了在 CVPR2023 WAD 研讨会的 MOTS 轨迹上的第一名以及 MOT 轨迹上的第二名的简单有效方法。
Aug, 2023
本文提出一种名为 MeNToS 的方法,利用实例分割和光流技术创建轨迹,依靠时空记忆网络(STM)来改善具有时间间隔的轨迹的关联,从而进行多目标跟踪和分割 (MOTS),并且在 RobMOTS 挑战中获得了第 4 名。
Jul, 2021
提出了一种称为 “Tracking-by-Animation” 的跟踪框架,通过利用可微分的神经模型对多个对象进行跟踪,并在重构帧中动画化这些对象,从而实现了无需标记数据的端到端 MOT 学习。同时进一步提出了优化数据关联的 “Reprioritized Attentive Tracking” 模型。
Sep, 2018
本文提出了一种利用普通物体跟踪器在大规模未标记的汽车环境视频中进行物体挖掘的方法,并展示了超过 36 万个自动挖掘的物体轨迹,并提出了一种自动发现新类别和学习检测器的方法。此外,我们还展示了利用挖掘轨迹进行目标检测器适应的初步结果。
Sep, 2018
本论文提出了一种半自动化的包围盒标注方法,利用跟踪 - 检测方法和时间信息,采用现成的目标检测器训练,利用多重假设追踪 (MHT) 来提高检测结果的可靠性,并使用人工评估来进行迭代标注。通过实验显示,该方法可以将标注工作量减少 96%。
Jan, 2021