LiCAF: 基于激光雷达和摄像机的不对称融合用于步态识别
本研究主要关注于穿越不同传感器跨模态识别行人的步态识别研究,通过提出 CrossGait 方法,利用特征对齐策略进行跨模态数据检索,并通过 Prototypical Modality-shared Attention Module 和 Cross-modality Feature Adapter 进一步增强模态之间的识别性能。在 SUSTech1K 数据集上广泛实验,CrossGait 在多样的场景中展现了良好的跨模态能力,能准确检索不同传感器和多种模态的行人,同时保持了单模态识别所需的模态特定特征。
Apr, 2024
本研究提出了一种新型的人体步态识别方法,名为 GaitFi,该方法利用 WiFi 信号和视频进行人体识别,其中 Channel State Information 可以捕捉人体步态,经实验证明 GaitFi 表现较好,可达到 94.2% 的人体识别准确率。
Aug, 2022
采用 AutoEncoder framework - GaitNet 来解决服装、携带物品和观察角度等干扰因素的问题。同时我们还建立了 Frontal-View Gait dataset,通过 CasIA-B,USF 和 FVG 数据集的实验,我们的方法表现优异,并且在某些场景下与其他识别技术相比具有优势,如长距离 / 低分辨率,交叉观测角度。
Sep, 2019
该论文介绍了一种新的多传感器融合算法:LiDAR 惯性摄像头融合(LIC-Fusion),它可以在线校准所有异步传感器之间的空间和时间,并在 MSCKF 框架内实现稀疏视觉特征观测值和 IMU 读数的多模态传感器融合,实验结果表明,在室内和室外环境下,该算法相对于视觉惯性测量(VIO)和 LiDAR 测量方法具有更高的估计精度和鲁棒性。
Sep, 2019
该研究提出一种基于 AutoEncoder 框架、利用 RGB 成像中的姿态和外貌特征,以及对前方视角步行进行重点研究的 FVG 数据集来辅助鲁棒的步态识别方法,通过在 CASIA-B,USF 和 FVG 数据集上的大量实验证明了该方法具有优秀的识别性能、特征解缠能力和有前途的计算效率。
Apr, 2019
本研究提出一种更健壮和噪声抗性的跨模态融合策略 - CrossFusion,充分利用设计的跨模式补充策略的相机和 LiDAR 特征,实验表明我们的方法不仅在不引入额外深度估计网络的情况下优于现有方法,还证明我们的模型具有噪声抗性和不需要重新训练,能够应用于特定故障场景,增加了 5.2%的平均精度(mAP)和 2.4%的归一化检测得分(NDS)
Apr, 2023
本研究提出一种基于卷积神经网络和循环神经网络的双向注意力模型,应用于步态识别领域。实验表明,该模型在数据采集和外观变化等因素影响下的识别性能优于其他方法,并对不同类型遮挡的数据具有更强的鲁棒性。
Oct, 2020
本文提出了一种基于机器学习的统计方法,利用线性判别分析与最大边缘准则从原始运动捕捉数据中提取强健步态特征,通过对 CMU MoCap 数据库的实验表明了该方法的优越性,并说明了其具有高度的移植性,对于不需要特定组特征的人物识别非常方便,此研究结果可使运动捕捉技术更直接地应用于人物识别领域。
Aug, 2017
通过多阶段特征融合策略(MSFFS),自适应特征融合模块(AFFM)和多尺度时空特征提取器(MSSTFE)提出了一种多阶段自适应特征融合(MSAFF)神经网络,结合了多种模态的优势,在多个数据集上展现出最先进的性能。
Dec, 2023
使用深度学习方法结合 LIDAR 和相机图像,开发了一种道路检测方法,通过使用多模式信息,新提出的交叉融合 FCN 实现了更高的准确性,表现优异并跻身最佳方法之列。
Sep, 2018