通过对齐学习:利用跨模态对应关系进行可见光 - 红外人员再识别
本论文提出了一种四流框架,通过深度卷积神经网络中不同的输入图像表示来学习不同的特征,从而改善可见光 - 红外人员重识别系统的性能。实验结果表明,该框架在多个数据集上优于当前最先进的方法。
Jul, 2019
本文提出一种基于 Aligned Grayscale Modality (AGM) 的跨模态人员重识别方法,通过生成灰度可见光图像和风格迁移转换红外图像得到一致的数据,再结合多颗粒度特征提取网络在特征级别进行对齐,能够显著提高跨模态检索表现。
Apr, 2022
提出了一种名为多层交叉模态联合对齐(MCJA)的简单而有效的方法,它通过模态对齐增强和跨模态检索损失来缩小可见光和红外图像之间的差距,从而实现人员再识别任务的跨模态图像检索。
Jul, 2023
本研究主要研究基于视频的跨模态人员重新识别方法。通过构建一个视频 RGB-IR 数据集,证明了在 RGB-IR 人员重新识别中,视频到视频的匹配非常重要。此外,还提出了一种新的方法,该方法不仅将两种模态投射到模态不变的子空间中,还提取了时间内存以实现运动不变性。
Aug, 2022
可见光红外人物再识别是一项具有挑战性的跨模态行人检索任务,该研究提出了一种新颖的隐式判别知识学习网络 (IDKL),通过提取模态特定和模态共享特征,减少模态风格差异并提升识别知识,实现了对隐含判别信息的利用,进一步强化模态共享特征的独特性,以最小化模态差异。与现有方法相比,实验结果表明 IDKL 网络具有优越性能。
Mar, 2024
无监督可见红外人员重新识别 (UVI-ReID) 是研究的重点,文章提出了一种新的无监督跨模态人员重新识别框架 (PRAISE),通过修正伪标签和模态层对齐策略来提高性能,并在两个基准数据集上取得了最新的成果。
Apr, 2024
通过引入一个新的模态统一网络(MUN),本研究针对可见光 - 红外人员重识别(VI-ReID)中的大量跨模态差异和类内变异问题,通过动态建模模态特定和模态共享表示来提取判别特征表达,从而使所提出的方法在多个公共数据集上明显超过当前最先进的方法。
Sep, 2023
本文提出了 Patch-Mixed Cross-Modality framework (PMCM) 框架,该框架通过图片分割并拼接,实现了不同模态下人员识别过程中的语义对应,同时在视觉可见光和红外人员重识别任务中取得了最佳表现。
Feb, 2023
本研究提出了一种可匹配可见光和红外相机捕捉的人物的可视红外人物再识别方法(VI-ReID),旨在实现 24 小时监控系统中的人物检索和跟踪。通过构建大规模 VI-ReID 数据集 BUPTCampus,本研究为该领域的进一步研究提供了基础,并通过应用生成对抗网络(GAN)和课程学习等方法,取得了显著优越的实验结果。
Nov, 2023
通过互信息和模态一致性网络,提取具有代表性信息的模态不变身份特征,减少冗余,消除模态差异,并对关键部分进行全局 - 局部特征提取,以实现可见 - 红外人物重识别任务。
Aug, 2023