基于空间和时间记忆网络的视频人员再识别
本篇论文提出了一种新的联合空间和时间注意力池化网络(ASTPN)用于基于视频的人物再识别,能让特征提取器意识到当前输入的视频序列,而空间和注意力时间池化层都能从距离匹配信息中筛选出有代表性的人物并对其进行学习,实验证明可以优于现有的 state-of-the-art 方法。
Aug, 2017
本文提出一种基于视频序列的人物再识别方法,通过 Refining Recurrent Unit 和 Spatial-Temporal clues Integration Module 来更好地表达视频序列中的空间和时间信息,并且采用了多层次训练目标来增强算法的性能。实验结果表明,该方法在 iLIDS-VID 和 MARS 数据集上优于现有的最先进方法,并在 PRID-2011 上取得了良好的结果。
Dec, 2018
本研究旨在解决视频行人重新识别中的空间对齐问题和时间依赖性问题,提出了一种使用 3D 卷积和非局部块进行特征聚合的网络架构,实验结果表明该方法在多个指标上的性能均优于现有技术。
Jul, 2018
本论文提出了一种具有 Siamese attention architecture 的模型,在视频中提取本地卷积特征,并使用嵌入式注意机制在门控循环单元中选择性地传播相关特征并记住它们的空间依赖性,以解决视频中行人匹配的问题,并在三个基准数据集上取得了良好的效果。
Aug, 2018
该文综合研究和比较了视频人员重识别的四种不同的时间建模方法,包括时间汇聚,时间关注,RNN 和 3D 卷积神经网络,并提出了一个采用时间卷积的注意力生成网络,用于在帧之间提取时间信息。在 MARS 数据集上进行评估,并通过一大部分超越了最新技术的方法。
May, 2018
本文提出了一种新的个性化、时空解耦的人员再识别方法(InSTD), 其中加入了个性化信息用于狭窄化搜索空间并将空间 - 时间传递概率从联合分布解耦以适应离群值,实验结果表明,我们的方法在 Market-1501 和 DukeMTMC-reID 上的 mAP 分别提高了 8.6%和 16.4%。
Jul, 2021
本研究提出了一种新的两流空间 - 时间人物重新识别(st-ReID)框架,该框架挖掘了视觉语义信息和空间 - 时间信息,引入 Logistic Smoothing(LS)联合相似性度量,使用快速直方图 - Parzen(HP)方法近似复杂的空间 - 时间概率分布,消除了很多无关图像,在 Market-1501 和 DukeMTMC-reID 数据集上均取得了最好的准确性,进步幅度达到了先前方法的很大程度。
Dec, 2018
本文提出了一种新颖的特征学习框架,用于视频中的人物再辨识,主要利用视频序列中的适当时间信息和解决运动行人的空间对齐问题,并设计了一个时间残差学习(TRL)模块和一个空间 - 时间转换器网络(ST^2N)模块。经过广泛实验验证,提出的方法在各大数据集上都取得了一致优秀的表现,并超越了绝大多数最新的最先进方法。
Feb, 2018
本文介绍了一种通过非局部注意力机制,将空间和时间信息嵌入到特征表示中的视频行人重识别方法(NVAN)。实验表明 NVAN 在 MARS 数据集上的排名准确性比现有方法高出 3.8%,STE-NVAN 相比现有方法具有更先进的计算足迹。
Aug, 2019
本文提出了一种两流卷积网络,用于提取视频中的时空线索以进行基于视频的人员再识别,其中一种流构建为通过将几个多尺度 3D 卷积层插入 2D CNN 网络而构成的暂时流,另一种流则由 2D CNN 实现以进行空间特征提取,并将两个流的空间和时间特征最终融合,经过广泛使用的基准数据集 MARS、PRID2011 和 iLIDS-VID 的评估表明,我们的方法具有优于现有 3D 卷积网络和现有技术的优秀性能。
Nov, 2018