Oct, 2023

MotionAGFormer: 基于Transformer-GCNFormer网络的3D人体姿势估计增强

TL;DR我们提出了一种新颖的Attention-GCNFormer(AGFormer)模块,通过使用两个并行的Transformer和GCNFormer流来减少通道数,以精确捕捉邻接关节之间的局部依赖关系。通过以适应性方式融合这两种表示,AGFormer模块在学习底层3D结构方面表现出更好的能力。通过堆叠多个AGFormer模块,我们提出了四个不同变体的MotionAGFormer模型,可以根据速度-准确性的权衡来选择。我们在两个常用基准数据集Human3.6M和MPI-INF-3DHP上评估了我们的模型。MotionAGFormer-B取得了最先进的结果,分别为38.4mm和16.2mm的P1错误率。值得注意的是,与Human3.6M数据集上的前一最先进模型相比,它使用了四分之一的参数,并且计算效率提高了三倍。该模型的代码和模型可在指定的网址上获得。