骨架动作识别的反馈图卷积网络
本研究提出了一种新的双流自适应图卷积网络(2s-AGCN),用于基于骨架的动作识别,通过数据驱动的方法学习网络拓扑结构,同时建立了包含一阶和二阶信息的双流框架,通过对NTU-RGBD和Kinetics-Skeleton数据集上的实验,证明了本模型的优越性。
May, 2018
提出了一种基于编码器-解码器结构的 A-link 推断模块来捕捉动作特定的潜在依赖关系,即动作链接,并将其与现有的骨骼图扩展以表示更高阶依赖关系,即结构链接,进而将两种类型的链接组合成广义骨骼图卷积网络(AS-GCN),用于动作识别,并在 NTU-RGB + D 和 Kinetics 两个骨骼数据集上进行验证,并通过与现有方法的比较实现了一致的显著改进。同时,AS-GCN 在未来姿态预测方面也表现出了良好的结果。
Apr, 2019
本文提出了一种多流注意力增强的自适应图卷积神经网络(MS-AAGCN),用于基于骨架的动作识别。该模型可以端到端地学习图的拓扑结构,并用空时通道注意模块提高模型注意到重要关节、帧和特征。多流框架同时建模关节和骨骼信息及其运动信息,结果在大规模数据集NTU-RGBD和Kinetics-Skeleton上都超过了现有技术水平。
Dec, 2019
本论文提出一种基于图卷积网络(GCN)的高效却强大的基线模型,该模型融合了多输入分支(MIB)、残差 GCN(ResGCN)和全局部分注意力机制(PartAtt)等三个关键组件,能够更加有效地提取具有区分度的骨骼动作特征,并在大规模数据集上取得了较高的分类性能比其他最先进的方法更好的性能。
Oct, 2020
通过对图形卷积网络中的拆分、变换、合并策略进行重新设计,我们构建了一个简单而高度模块化的图形卷积网络体系结构,用于骨架序列处理中的动作识别,并证明了其优于现有基于深度学习的方法。
Nov, 2020
研究了基于骨架动作识别中如何提取骨架联结的区分特征所面临的问题,提出了一种基于图卷积网络的高效的GCN基线。通过提出的复合扩展策略,在NTU RGB+D 60和120数据集上,其EfficientGCN-B4基线性能超越其他SOTA模型,且模型规模更小、训练速度更快。
Jun, 2021
本文提出了一种名为Hierarchical Graph Convolutional skeleton Transformer (HGCT)的新型架构,通过引入Disentangled Spatiotemporal Transformer块,利用全局时空注意力和本地信息增强相互协同,以解决基于骨架的动作识别中的邻域限制和空间时间特征表示相互干扰等问题,同时具有计算效率高、解释性好等优点。
Sep, 2021
本研究提出了一种多尺度空间图卷积和多尺度时间图卷积模型,通过分解相应的局部图卷积为一系列子图卷积,形成一个分层残差体系结构,使图卷积神经网络能够捕获空间和时间域中的短程和长程依赖关系,从而实现骨骼动作识别,该模型在三个基准数据集上表现出了显著的性能。
Jun, 2022
介绍了通过重参数化和超参数化技术,分别提出了两种新的高性能推理图卷积网络 HPI-GCN-RP 和 HPI-GCN-OP,其中 HPI-GCN-OP 在维持相同准确率的情况下,比 HD-GCN 快 4.5 倍,同时在两个基于骨架的动作识别数据集上实验表明了我们的方法的有效性。
May, 2023