一个多阶段自适应特征融合神经网络用于多模态步态识别
提出了一种新的步态识别框架 GaitASMS,能够有效提取自适应结构化空间表示,并自然地聚合多尺度的时间信息,同时引入了新的数据增强方法 random mask。在复杂场景下,该方法在 CASIA-B 数据集上取得了 93.5% 的平均准确率,并分别在 BG 和 CL 上将基线的 rank-1 准确率提高了 3.4% 和 6.3%。ASRE 和 MSTA 的消融实验证明了其有效性。
Jul, 2023
本论文提出了一种名为 GaitGS 的新型框架,利用多颗粒度和跨度、多个时间特征提取器和其他模块来进行步态识别,并在三个流行的数据集上进行了广泛的实验,证明了我们方法的最新性能。
May, 2023
本文提出了一种通过全局可视信息和局部区域细节来实现步态识别的辨别性特征提取和融合框架,使用多个全局和局部卷积层来组合全局和局部特征,并提出了本地时间聚合操作来进一步保留空间信息以获得更高的空间分辨率。 实验结果表明,该方法在两个流行数据集上优于现有技术。
Nov, 2020
本论文提出了一种上下文敏感的时态特征学习(CSTL)网络,用于步态识别,其中在三个尺度上生成时间特征,并根据来自局部和全局视角的上下文信息自适应地聚合它们。通过使用 transformer 实现全局关系建模和选取差异化空间特征的策略,显著提高了步态识别的准确性。
Apr, 2022
本文提出了一种分层时空表示学习 (HSTL) 框架,用于从粗到细提取步态特征,并通过多层特征映射和多尺度时间降采样来减少冗余信息,实验表明该方法在性能上优于现有方法并保持了模型准确度与复杂度的合理平衡。
Jul, 2023
采用 AutoEncoder framework - GaitNet 来解决服装、携带物品和观察角度等干扰因素的问题。同时我们还建立了 Frontal-View Gait dataset,通过 CasIA-B,USF 和 FVG 数据集的实验,我们的方法表现优异,并且在某些场景下与其他识别技术相比具有优势,如长距离 / 低分辨率,交叉观测角度。
Sep, 2019
通过引入轻量级的关注网络,以及多尺度特征融合,本研究的主要目标是克服在实际应用中计算复杂性和多视角头部姿势方面所面临的挑战,该方法在参数数量和对姿势变化的鲁棒性方面达到了业界先进方法的水平。
Mar, 2024
该研究提出一种基于 AutoEncoder 框架、利用 RGB 成像中的姿态和外貌特征,以及对前方视角步行进行重点研究的 FVG 数据集来辅助鲁棒的步态识别方法,通过在 CASIA-B,USF 和 FVG 数据集上的大量实验证明了该方法具有优秀的识别性能、特征解缠能力和有前途的计算效率。
Apr, 2019
本文介绍了一种新的三支路人体步态识别框架(TriGait),它有效地融合了骨架和轮廓数据的特征,包括从外观提取静态和动态特征的两流网络,通过捕捉所有关节之间的依赖关系的简单而有效的 JSA-TC 模块,以及通过对两种模态的低级特征进行对齐和融合的第三支路用于交叉模态学习。实验证据表明 TriGait 在人体步态识别方面具有卓越的优越性和有效性。在 CASIA-B 数据集的所有条件下,所提方法的平均排名准确率为 96.0%,对 CL 数据集的准确率为 94.3%,明显优于所有现有技术方法。源代码将在此 URL 提供。
Aug, 2023
该论文提出了一种基于 Graph Convolutional Networks(GCNs)的方法,结合高级别输入和残差网络,用于骨架轮廓图进行步态识别,实验结果显示了 3 倍于最先进技术水平和强大的视频建模能力。
Apr, 2022