通过时间减缓原则,自学习得视觉跟踪的深度不变表示
本文提出了一种新的基于卷积神经网络的目标跟踪方法,使用简单的两层卷积神经网络进行在线适应学习,能够生成鲁棒性较强的目标表示,并在 CVPR2013 数据集上的 50 个挑战性视频中表现优异。
Jan, 2015
本研究提出了一种利用单个卷积神经网络(CNN)实现在纯在线模式下学习目标对象有效特征表示的高效且非常强大的跟踪算法,其利用一种新颖的截断结构损失函数、稳健的样本选择机制和一种懒但有效的更新算法,使 CNN 在视觉跟踪中对遮挡或错误检测等难以处理的问题具有鲁棒性,在实验中,与现有跟踪器相比,该算法可以提高性能。
Feb, 2015
提出了一种无监督学习方法,基于 Siamese 相关滤波网络,在前向追踪和反向追溯之间进行一致性测量来训练视觉跟踪器,并提出了多帧验证方案和一种成本敏感的损失来促进无监督学习,该方法在速度上达到实时水平,在不使用昂贵标记数据的情况下,实现与现有标准跟踪器相当的准确度,而且在使用更多未标记或弱标记数据的情况下,该方法有进一步提高跟踪精度的潜力。
Jul, 2020
该论文提出了一种基于层次特征学习的视觉目标跟踪方法,通过使用两层卷积神经网络实现对多样化运动模式的特征离线学习,并通过域自适应模块实现对具体目标的个性化在线特征调整,提高了在复杂运动转换和外观变化情况下的视觉目标跟踪性能。
Nov, 2015
本文提出了 “稳态特征分析” 这一新的方法,通过在未标记的序列视频中训练卷积神经网络,利用各种数据集证明本方法在目标、场景和动作识别等方面的有效性,且其特征甚至可以超过传统的监督式预训练方法。
Jun, 2015
本文基于卷积通道缩减技术将图像分类特征应用于视觉跟踪领域,提出了一种有效而实时的视觉跟踪器,不仅提取了目标的有用信息,而且大幅提高了跟踪速度,同时在两个基准测试中实现了最新的准确性。
Jan, 2017
本文提出了一种自适应的视觉目标跟踪方法,通过离线学习增强学习代理来决定何时在浅层或深层特征下对图像进行处理,从而实现在单个 CPU 上快速跟踪,同时为几乎 50% 的时间提供了 100 倍的速度提升。
Aug, 2017
本研究提出了一种新颖的自监督学习方法来学习对于动态运动变化有响应的视频表征,通过训练神经网络来区分不同的时间变换的视频序列,使得无需人工标注数据即可准确地识别视频中的不稳定运动并增强神经网络在小数据集上的训练。该方法经过实验证明,可显著提高 UCF101 和 HMDB51 上的动作识别的传递性能。
Jul, 2020
本文提出了一种新的混合表示学习框架,该框架可以针对流数据进行处理,其中视频中的图像帧由两个不同的深度神经网络集成模拟;一个是低位量化网络,另一个是轻量级全精度网络,前者以较低的成本学习粗略的主要信息,而后者则提供了能够还原表示的高保真度的剩余信息,所提出的并行结构是维护互补信息的有效方法,因为可以在量化网络中利用定点算术,并且轻量级模型提供了由紧凑通道修剪网络给出的精确表示,我们将混合表示技术纳入在线视觉跟踪任务,其中深度神经网络需要在实时处理目标外观的时间变化,与传统的深度神经网络实时跟踪器相比,在标准基准测试中,我们的跟踪算法表现出较高的准确性,只需很小的计算成本和内存占用。
May, 2022
提出了一种无需标注数据的自我监督视觉学习方法,通过预测视频播放速度的变化来学习视频的时空视觉表示,同时运用可变播放速度下视觉外观的变化来学习整个视频的时空视觉特征,并提出了一种新的可应用于三维卷积神经网络的可靠的时间组归一化方法,最终在 UCF-101 和 HMDB-51 数据集上验证了该方法的有效性。
Mar, 2020