基于时序知识传播的图像到视频的行人再识别
本文提出了一种基于轨迹的框架,采用视觉和时间上的链接进行个体识别,实现人物检索,同时提供一个包含 192 个电影、127K 手动注释的轨迹的大型基准测试集,实验表明我们的方法优于传统的人体重识别方法,将平均精度提高了 20%
Jul, 2018
该研究旨在构建一种基于视角知识蒸馏(VKD)的模型,通过在 teacher-student 框架下将多种视角信息作为监督信号进行主动学习,从 Video-To-Video 到 Image-To-Video,显著提高了人、动物、车辆重识别的性能。
Jul, 2020
该文综合研究和比较了视频人员重识别的四种不同的时间建模方法,包括时间汇聚,时间关注,RNN 和 3D 卷积神经网络,并提出了一个采用时间卷积的注意力生成网络,用于在帧之间提取时间信息。在 MARS 数据集上进行评估,并通过一大部分超越了最新技术的方法。
May, 2018
本文提出了一种新的 CTL 框架来实现视频行人重新识别,其通过建模跨尺度时空相关性来追求具有辨别力和鲁棒性的表征,采用了卷积神经网络和关键点估计器来抽取人体的语义局部特征,并通过构建多尺度图形来捕捉分层时空依赖性和结构信息,最终证明了该方法在两个视频基准上实现了最先进的表现。
Apr, 2021
本文提出一种基于视频序列的人物再识别方法,通过 Refining Recurrent Unit 和 Spatial-Temporal clues Integration Module 来更好地表达视频序列中的空间和时间信息,并且采用了多层次训练目标来增强算法的性能。实验结果表明,该方法在 iLIDS-VID 和 MARS 数据集上优于现有的最先进方法,并在 PRID-2011 上取得了良好的结果。
Dec, 2018
本文提出了一种基于 STMN 的新型人员 reID 方法,通过存储频繁出现在视频帧中的空间干扰和优化人员视频的典型时间模式的注意力,实现了对人员视频中的空间和时间干扰的有效处理。
Aug, 2021
本文提出了一种高效的时空表示方法 BiCnet-TKS,并通过在原始分辨率和下采样策略上处理连续帧以获取目标身份的全面特征;该模型包含多个并行的和多样化的注意力模块以发现连续帧的不同部位,在任何深度插入 TKS 模块以捕捉短期和长期的时间关系,并在多个基准测试中取得优于先前研究的结果。
Apr, 2021
本文提出了一种新颖的特征学习框架,用于视频中的人物再辨识,主要利用视频序列中的适当时间信息和解决运动行人的空间对齐问题,并设计了一个时间残差学习(TRL)模块和一个空间 - 时间转换器网络(ST^2N)模块。经过广泛实验验证,提出的方法在各大数据集上都取得了一致优秀的表现,并超越了绝大多数最新的最先进方法。
Feb, 2018
本文提出了一种基于时间模型适应的新方法,通过人的参与使用基于图形的方法更新最具信息性的探针 - 图库匹配,从而有效减少了人工配对标签的工作量,在三个数据集上的实验均证明该方法表现优于现有技术。
Jul, 2016