GaitGS: 步态识别中粒度和跨度维度的时间特征学习
本文提出了一种通过全局可视信息和局部区域细节来实现步态识别的辨别性特征提取和融合框架,使用多个全局和局部卷积层来组合全局和局部特征,并提出了本地时间聚合操作来进一步保留空间信息以获得更高的空间分辨率。 实验结果表明,该方法在两个流行数据集上优于现有技术。
Nov, 2020
本论文提出了一种上下文敏感的时态特征学习(CSTL)网络,用于步态识别,其中在三个尺度上生成时间特征,并根据来自局部和全局视角的上下文信息自适应地聚合它们。通过使用 transformer 实现全局关系建模和选取差异化空间特征的策略,显著提高了步态识别的准确性。
Apr, 2022
提出了一种新的步态识别框架 GaitASMS,能够有效提取自适应结构化空间表示,并自然地聚合多尺度的时间信息,同时引入了新的数据增强方法 random mask。在复杂场景下,该方法在 CASIA-B 数据集上取得了 93.5% 的平均准确率,并分别在 BG 和 CL 上将基线的 rank-1 准确率提高了 3.4% 和 6.3%。ASRE 和 MSTA 的消融实验证明了其有效性。
Jul, 2023
本文提出了一种分层时空表示学习 (HSTL) 框架,用于从粗到细提取步态特征,并通过多层特征映射和多尺度时间降采样来减少冗余信息,实验表明该方法在性能上优于现有方法并保持了模型准确度与复杂度的合理平衡。
Jul, 2023
通过多阶段特征融合策略(MSFFS),自适应特征融合模块(AFFM)和多尺度时空特征提取器(MSSTFE)提出了一种多阶段自适应特征融合(MSAFF)神经网络,结合了多种模态的优势,在多个数据集上展现出最先进的性能。
Dec, 2023
提出了一种自我监督步态识别方法 ——SelfGait,利用海量、多样的未标记步态数据作为预训练,以提高时空骨干的表示能力,经过在 CASIA-B 和 OU-MVLP 基准步态数据集上的实验,证明了所提方法相对于四种最先进的步态识别方法的有效性。
Mar, 2021
该研究提出一种基于 AutoEncoder 框架、利用 RGB 成像中的姿态和外貌特征,以及对前方视角步行进行重点研究的 FVG 数据集来辅助鲁棒的步态识别方法,通过在 CASIA-B,USF 和 FVG 数据集上的大量实验证明了该方法具有优秀的识别性能、特征解缠能力和有前途的计算效率。
Apr, 2019
采用 AutoEncoder framework - GaitNet 来解决服装、携带物品和观察角度等干扰因素的问题。同时我们还建立了 Frontal-View Gait dataset,通过 CasIA-B,USF 和 FVG 数据集的实验,我们的方法表现优异,并且在某些场景下与其他识别技术相比具有优势,如长距离 / 低分辨率,交叉观测角度。
Sep, 2019
通过分析视频级人体轮廓而不依赖外貌信息,步态识别旨在区分不同的行走模式。在以往的步态识别研究中,主要关注提取局部或全局时空特征,而忽视了步态序列固有的周期特征,这些特征在充分利用时可以显著提高性能。本文提出了一种名为 Temporal Periodic Alignment (TPA) 的即插即用策略,它利用了步态模式的周期性和细粒度的时间依赖性。TPA 策略由两个关键组件组成:自适应傅里叶变换位置编码 (AFPE) 将特征和离散时间信号自适应地转换为对周期性行走模式敏感的嵌入;时间聚合模块 (TAM) 将嵌入分为趋势和季节分量,并提取有意义的时间相关性以识别主要成分,同时过滤掉随机噪声。我们提出了一种基于 TPA 策略的简单有效的步态识别基线方法。在三个常用的公开数据集(CASIA-B,OU-MVLP 和 GREW)上进行了大量实验证明,我们提出的方法在多个基准测试中实现了最先进的性能。
Jul, 2023
本研究提出一种基于卷积神经网络和循环神经网络的双向注意力模型,应用于步态识别领域。实验表明,该模型在数据采集和外观变化等因素影响下的识别性能优于其他方法,并对不同类型遮挡的数据具有更强的鲁棒性。
Oct, 2020