我们提出了一种基于区分性损失函数的端到端可训练的视觉跟踪器,可以有效地利用目标和背景外观信息进行目标模型预测,并在 6 个跟踪基准测试中取得了新的最好成绩。
Apr, 2019
使用 ILSVRC15 数据集训练的全卷积 Siamese 网络在视频中实现物体检测和追踪,取得了多项基准测试中的最优性能。
Jun, 2016
本研究提出了一种利用单个卷积神经网络(CNN)实现在纯在线模式下学习目标对象有效特征表示的高效且非常强大的跟踪算法,其利用一种新颖的截断结构损失函数、稳健的样本选择机制和一种懒但有效的更新算法,使 CNN 在视觉跟踪中对遮挡或错误检测等难以处理的问题具有鲁棒性,在实验中,与现有跟踪器相比,该算法可以提高性能。
Feb, 2015
通过引入外貌模块来学习目标和背景外观的概率生成模型,提高了视频对象分割网络的性能,并实现了全端到端的训练。
Nov, 2018
该研究提出了一种基于深度强化学习方法构建的模板选择策略的实时视觉追踪算法,该算法可有效应对模型更新导致的跟踪偏移问题,可在实时速度下以 43fps 跑动。
Feb, 2017
本文提出了一个用于视觉跟踪的双网络模型,利用不同深度网络层次上的结构进行层次特征的提取,通过层次特征和边缘检测器相结合,进一步嵌入目标周围局部细节,并对其进行在线更新和独立分量分析,实现了对物体的精确跟踪。在大型基准数据集上进行的定量和定性评估表明,所提出的算法具有很好的性能。
Dec, 2016
本文提出一种全面的端到端视频视觉跟踪方法,利用循环卷积神经网络代理与视频进行交互,并结合强化学习算法来学习不断的关注连续帧相关性和最大化在长期内的跟踪性能,实现了比现有跟踪基准更快速的状态 - of-the-art 性能。是第一个将卷积和循环网络与强化学习算法相结合的神经网络跟踪器。
Jan, 2017
本文提出了一种新的基于卷积神经网络的目标跟踪方法,使用简单的两层卷积神经网络进行在线适应学习,能够生成鲁棒性较强的目标表示,并在 CVPR2013 数据集上的 50 个挑战性视频中表现优异。
Jan, 2015
本研究提出了一种在线多目标跟踪方法,通过收集检测和跟踪的输出,利用基于完全卷积神经网络的新型评分函数处理不可靠检测,并采用深度学习出的外貌特征来提高跟踪的识别能力。该方法在人员跟踪基准测试中达到了实时和最先进的性能。
Sep, 2018
通过基于卷积神经网络的表示方式提出了新型的视觉跟踪算法,该算法使用大型跟踪数据集进行了 CNN 预训练,从而获得了通用物体表示信息,并通过领域特定的二分类器不断迭代训练来实现在线跟踪。实验结果表明,该算法在目前已有的跟踪基准数据集中性能表现卓越。
Oct, 2015