关键词video-based person re-identification
搜索结果 - 13
- 发挥轨迹片段在无监督视频人物再辨识中的潜力
本文提出了一种无监督视频人员重识别的自监督精细聚类 (SSR-C) 框架,通过减少由于嘈杂跟踪结果引起的 tracklets 特征偏差的噪声过滤模块 (NFTP),将 tracklets 划分为 “子 tracklets”,利用自监督信号进 - 基于注意力的形状和步态表示学习方法对基于视频的更衣人物再识别
本研究提出了一种基于注意力机制的形状和步态表示学习框架,通过使用空间 - 时间图注意力网络进行服装变化下的人物再识别,从而提高了人物再识别的性能。
- 基于视频的行人再识别与长短期表示学习
提出了一种名为长短期表示学习(LSTRL)的新型深度学习框架,通过多粒度外观提取器(MAE)和双向运动估计器(BME)有效地提取长期和短期信息,显著改善了视频行人重新识别(V-ReID)的特征表示能力。实验证明,该方法在三个广泛使用的基准测 - ICCV基于时空表示分解的视频行人重识别
该研究提出了一个新的 Spatio-Temporal Representation Factorization (STRF) 计算单元,它可以与大多数现有的三维卷积神经网络结构一起使用。结果表明,STRF 在三个基准测试中展现出了比现有基线 - CVPR基于视频的人员再识别不带花哨
提出了一种基于深度学习检测和追踪的重新检测和链接模块,并结合粗到细轴向注意网络优化了视频行人重识别,可以显著降低计算成本并在 MARS 数据集上实现排名 1 的最高表现,能够解决由于不完美的检测和跟踪结果导致的空间和时间错配问题,同时发现了 - 视频中人物重新识别的时空相关性和拓扑学习
本文提出了一种新的 CTL 框架来实现视频行人重新识别,其通过建模跨尺度时空相关性来追求具有辨别力和鲁棒性的表征,采用了卷积神经网络和关键点估计器来抽取人体的语义局部特征,并通过构建多尺度图形来捕捉分层时空依赖性和结构信息,最终证明了该方法 - 一段视频胜似三番观:基于三支脉络变换器的视频人物再识别
本文中提出了一种名为 “三叉神经变压器” 的框架,通过将原始视频数据转化为不同的特征域,同时使用自监督学习的三个自视图变压器和一个交叉视图变压器来增强信息并提取更全面的视频标识,实现了公共 Re-ID 基准上优于其他最先进方法的表现。
- ICCV基于密集交互学习的视频行人再识别
本论文提出了一种基于 CNN 和 Attention 的混合框架 (DenseIL),其中,CNN 编码器负责提取判别性的空间特征,而 Dense Interaction 解码器被设计为在帧与帧之间密集地建模空间 - 时间内在相互作用。与以 - CVPR全球引导下的视频人物再识别的互相学习
该论文提出了一种新颖的全球引导的互逆学习(GRL)框架,其中包括全局引导相关估计(GCE)和时态互逆学习(TRL)机制,用于视频人员重新识别,可以更好地利用视频中的空间和时间线索,并在三个公共基准上实现了比其他现有技术更好的表现。
- CVPR基于多粒度参考引导的注意力特征聚合技术用于基于视频的人员重识别
提出一种名为 MG-RAFA 的关注特征汇聚模块,用于将空间 - 时间特征精细地聚合成具有判别性的视频级别特征表示,采用全局视图与卷积操作学习关注,并基于不同粒度的关系学习多粒度关注,实现了视频 ReID 任务上的最新成果。
- 利用学习的剪辑相似度聚合进行视频人员再识别
该研究使用学习到的视频片段相似度聚合函数,以筛选出更具信息量的片段对,结合使用 3D CNNs 以及 RGB 输入,对三个具有挑战性的公开基准进行定量和定性验证,表现出更好或相当的性能。
- 深度连对注视网络:基于视频的人员再识别的时间与位置选择
本论文提出了一种具有 Siamese attention architecture 的模型,在视频中提取本地卷积特征,并使用嵌入式注意机制在门控循环单元中选择性地传播相关特征并记住它们的空间依赖性,以解决视频中行人匹配的问题,并在三个基准数 - 基于多样性正则化的时空关注力视频人物再识别
提出了一种新的时空注意力模型,可以自动发现多样化的特征,并使用空间和时间的注意力组合提取有用的信息,从整个视频序列中学习潜在的面部、躯干和其他身体部位的隐藏表示,通过三个数据集的评估发现算法优于现有方法。