基于深度外观和运动特征融合的无模型跟踪
介绍一项用于挑战深度神经网络的视觉测试 $ extit {PathTracker}$,揭示深度卷积神经网络在处理带有障碍物或远距离运动的物体运动路径时的盲点,期待类似于生物视觉的外观无关物体跟踪策略能解决深度神经网络的这一瓶颈。
Sep, 2021
本文提出了一种基于深度学习的新方法,用于基于视觉的单目标跟踪,该方法结合了卷积神经网络和贝叶斯损失层,提出了一种直接计算候选目标位置跟踪得分的网络架构。在标准跟踪基准上,该跟踪器达到了最先进的跟踪结果。
Jul, 2016
我们提出了一种数据驱动的方法,使用卷积神经网络(CNN)在一个检测跟踪框架中进行数据关联来进行在线多目标跟踪(MOT)。我们的解决方案学习如何在数据和图像之间组合线索来解决关联问题,可以在处理复杂情况下准确跟踪物体并获得优异结果。
May, 2019
本文提出了一种高效的深度神经网络方法 ——FMA,计算两个视频帧之间的 Framewise Motion Fields,并对大量对象的边界框进行快速可靠匹配,同时实现 Frame-wise Appearance Features 的学习,以达到实时多目标跟踪并取得与现有最先进方法相竞争的结果。
May, 2019
通过深度神经网络及自动特征提取技术,提出了一种新的无监督深度学习框架,用于复杂视频场景中的异常事件检测,其中融合了传统早期融合和晚期融合策略,并结合多个一类支持向量机模型进行最终异常检测。
Oct, 2015
引入基于深度学习的运动建模网络(DMM-Net)估算多个物体的运动参数,可用于联合检测和关联,以解决现有方法中深度模型过于依赖检测器、评估结果受检测器影响的问题。通过运用 DMM-Net 构建的 Omni-MOT 数据集,消除了检测器对多目标跟踪性能评估的影响,该方法取得了比传统方法更好的性能,速度更快。
Aug, 2020
本文提出了一种基于 CNN 的框架,用于在线多目标跟踪,并引入了空间 - 时间注意机制处理 Occlusion 问题,从而实现在 MOT15 和 MOT16 基准数据集上 34.3% 到 46.0% 的多目标跟踪性能。
Aug, 2017
我们提出了一种深度卷积神经网络来检测监控视频中的异常事件,该网络通过学习一种物体外观和运动之间的关系来解决该问题。我们的模型是由重建网络和图像转换模型组成的,它们共享相同的编码器。该模型仅通过正常事件的视频进行训练,可对未知输入进行帧级别的评分。在 6 个基准数据集上的实验证明了该方法在与最先进方法的竞争性能方面的优越性。
Aug, 2019
本篇论文提出了一种创新而有效的追踪方法 TrackletNet Tracker (TNT),它将时间和外观信息结合在一起作为一个统一的框架来处理多目标追踪 (MOT) 的挑战,并相比其他最先进方法,在 MOT16 和 MOT17 基准数据集上取得了令人满意的结果。
Nov, 2018