学习人物再识别的实例级时空模式
本研究提出了一种新的两流空间 - 时间人物重新识别(st-ReID)框架,该框架挖掘了视觉语义信息和空间 - 时间信息,引入 Logistic Smoothing(LS)联合相似性度量,使用快速直方图 - Parzen(HP)方法近似复杂的空间 - 时间概率分布,消除了很多无关图像,在 Market-1501 和 DukeMTMC-reID 数据集上均取得了最好的准确性,进步幅度达到了先前方法的很大程度。
Dec, 2018
本文提出了一种基于 STMN 的新型人员 reID 方法,通过存储频繁出现在视频帧中的空间干扰和优化人员视频的典型时间模式的注意力,实现了对人员视频中的空间和时间干扰的有效处理。
Aug, 2021
本文提出了一种新颖的特征学习框架,用于视频中的人物再辨识,主要利用视频序列中的适当时间信息和解决运动行人的空间对齐问题,并设计了一个时间残差学习(TRL)模块和一个空间 - 时间转换器网络(ST^2N)模块。经过广泛实验验证,提出的方法在各大数据集上都取得了一致优秀的表现,并超越了绝大多数最新的最先进方法。
Feb, 2018
提出一种基于无监督增量学习、迁移学习和贝叶斯融合模型的人物再识别算法,通过将视觉分类器从已有的小型单一数据集转移到未标记的目标领域,以学习行人的时空模式,并将其与视觉特征结合,最终利用基于学习排序的相互促进过程来增量地优化,实验结果表明,相比于现有的跨数据集无监督人物再识别算法,该算法取得了显著的改进。
Mar, 2018
本文提出了一种基于时间序列的视频人员重识别方法,可以准确地匹配任意不对齐的图像序列中的人,无需标记的成对数据,并通过引入时间移动动态时间扭曲 (TS-DTW) 模型实现自动对齐、数据选择和匹配。
Nov, 2016
本文提出一种基于视频序列的人物再识别方法,通过 Refining Recurrent Unit 和 Spatial-Temporal clues Integration Module 来更好地表达视频序列中的空间和时间信息,并且采用了多层次训练目标来增强算法的性能。实验结果表明,该方法在 iLIDS-VID 和 MARS 数据集上优于现有的最先进方法,并在 PRID-2011 上取得了良好的结果。
Dec, 2018
本篇论文提出了一种新的联合空间和时间注意力池化网络(ASTPN)用于基于视频的人物再识别,能让特征提取器意识到当前输入的视频序列,而空间和注意力时间池化层都能从距离匹配信息中筛选出有代表性的人物并对其进行学习,实验证明可以优于现有的 state-of-the-art 方法。
Aug, 2017
本研究提出了一种基于深度学习和时空规则的无监督人员再识别方法,通过跨摄像头轨迹关联和反复迭代来逐步更新模型,最终促进了跨摄像头轨迹的关联和更好的人员视觉特征提取。
Oct, 2019
本文提出了一种新的模型,可以从含有噪声 / 不完整人员图像序列中自动选择最具差别性的视频片段,从而可以计算可靠的时空和外观特征,同时学习用于人员重识别的视频排名功能。
Jan, 2016
基于自适应 Parzen 窗方法和融合网络的空时域车辆重新识别框架在公共数据集(VeRi776)上取得 99.64% 的 rank-1 准确率,实验证明利用空时信息可以提高基于外观的方法的准确性并有效处理外观歧义。
Sep, 2023