学习全局结构一致性以实现鲁棒目标跟踪
本文提出了一种名为 MotionTrack 的简单而有效的多目标跟踪器,它在统一框架中学习健壮的短期和长期运动,以将轨迹从短范围关联到长范围。通过在检测范例跟踪中嵌入 Interaction Module 和 Refind Module,在挑战性场景中,该方法在各种 MOT 指标上均实现了最先进的性能。
Mar, 2023
该论文提出了一种端到端可训练的方法,结合物体检测和跟踪,并引入了序列记忆模块,使其更好地处理多物体跟踪,尤其是遮挡的情况。经过大规模的合成数据和实际测试,在 KITTI 和 MOT17 数据集上取得了最先进的性能表现。
Mar, 2021
通过提出深度神经网络来解决目标跟踪中的挑战,该网络由两个主要路径组成,一个更渐进式路径,另一个更保守式路径,同时利用共现约束实现鲁棒性的推理和学习,并取得了优于 VOT17 基准测试的最新结果。
Apr, 2018
本文提出了一种使用场景信息进行跟踪的新架构,使用密集的本地化状态向量来表示该信息,该向量将场景的对象分类为目标 / 背景 / 干扰因素,并将其与外观模型输出相结合以定位目标,该方法在三个跟踪基准上获得了 63.6% 的 AO 得分.
Mar, 2020
我们提出了一种新的长期跟踪性能评估方法,并提出了一个具有许多目标消失的精心选择序列的新挑战性数据集,通过使用适用于评估长期跟踪的新性能指标 - 跟踪精度,召回率和 F 得分来广泛评估了六个长期和九个短期的最先进的跟踪器,评估结果表明,良好的模型更新策略和全局检测能力对于长期跟踪性能至关重要,我们将该方法集成到 VOT 工具包中以自动化实验分析和基准测试,并促进了长期跟踪器的开发。
Apr, 2018
本文提出了基于局部相关性模块的密集对应和可学习相关算子来增强模型的判别能力和对时间上下文的捕捉能力,从而在多目标跟踪方面取得了最先进的效果,并在 MOT17 数据集上实现了 76.5% 的 MOTA 和 73.6% 的 IDF1。
Apr, 2021
提出了一种能够应对大场景和多物体的无监督对象跟踪体系结构,包括空间不变运算(卷积和空间注意)和本地对象表示方案,在多个实验中展现了在有多个物体的混乱场景中跟踪对象比其他方法更好,并且能够很好地推广到训练时未遇到的更大,物体更多的视频中。
Nov, 2019
提出了一种基于时空多任务结构输出优化的鲁棒性关键点跟踪器,实现了跨帧时空模型的一致性、帧内空间模型的一致性以及辨别特征的构建,并采用联合学习方案同时优化了上述三个模块。
Dec, 2014