人员再识别图形对应转移
提出了一个基于提升算法的方法来学习一个对应结构,以处理由于摄像机视角变换或人体姿态变化而导致的空间错配问题。学习的对应结构可以不仅可以捕获摄像机之间的空间对应模式,还可以处理个体图像的视角或人形态变化。此外,还提出了一种全局匹配过程,通过在所学习的对应结构上整合全局匹配约束,来排除图像补丁匹配过程中的跨视角错配,从而实现更可靠的图像匹配得分。
Apr, 2015
本文提出了一种基于 Transformer 的 Skeleton Graph 原型对比学习(TranSG)方法来进行人员重新识别,该方法能够充分捕捉骨架间的关系和有价值的空间 - 时间语义,通过实证评估表明,TranSG 明显优于现有的最先进方法。
Mar, 2023
本文介绍了一种基于增强学习的方法来学习对应关系结构,进而解决人物重新识别中由于摄像视角变化和人体姿势变化导致的空间配准问题,并通过引入全局约束性匹配过程和多结构方案来提高精度。
Mar, 2017
本文提出了一种基于人体关节特征的人物重识别方法,通过采用图卷积网络与卷积神经网络相结合的方式解决了运动带来的误差问题。在 MARS 数据集和 PoseTrackReID 数据集上,该方法在 top-1 准确性和平均精度方面均优于前人工作,定义了新的最先进方法。
Nov, 2021
本文提出了一种新的 CTL 框架来实现视频行人重新识别,其通过建模跨尺度时空相关性来追求具有辨别力和鲁棒性的表征,采用了卷积神经网络和关键点估计器来抽取人体的语义局部特征,并通过构建多尺度图形来捕捉分层时空依赖性和结构信息,最终证明了该方法在两个视频基准上实现了最先进的表现。
Apr, 2021
提出了一种基于图匹配和最优传输计算的 RGB-IR ReID 模型,能够通过构建多尺度人体骨架图、匹配任务和信息融合等机制,确保跨模态图像的整体一致性、局部结构关联和语义特征的区分性。
Jun, 2021
该论文提供了一个名为 MSMT17 的新数据集以便于解决真实场景中人物再识别(ReID)的挑战问题,并介绍了一个叫 PTGAN 的方法来缩小数据集之间的领域差距以提高 ReID 的性能表现。
Nov, 2017
本文提出了一种名为 Part-based Hierarchical Graph Convolutional Network(PH-GCN)的深度学习框架,用于人物重识别问题。通过信息交互,PH-GCN 在全局、局部和结构特征学习上同时进行,提高了 Re-ID 的效果。
Jul, 2019
本文提出了一种新的方法,将细节人物描述(属性标签)和视觉特征(身体部位和全局特征)聚合成一个图形,即基于图形的人物签名,并利用图形卷积网络学习人物视觉签名的拓扑结构,并将其集成到多支路多任务框架中用于人物重新识别,并在两个大规模数据集上展示了我们所提出方法的有效性,包括 Market-1501 和 DukeMTMC-ReID,我们的方法在状态下的竞争结果中表现出较强的优势。
Apr, 2021
本研究提出了一种新的人物再识别关系网络,考虑了个体身体部位之间以及部位与其他部位之间的相互关系,有效提高了特征辨别能力,同时使用全局对比池化方法获取人物图像的全局特征,该方法已在多个数据集上实证表明其优越性。
Nov, 2019