Sep, 2019

自适应图模型网络用于二维手部姿态估计

TL;DR本文提出一种名为自适应图模型网络(AGMN)的新架构,用于从单个 RGB 图像估计 2D 手部姿势,该架构包含两个深度卷积神经网络分支,用于计算一元和双元潜力函数,随后是图形模型推断模块,用于集成一元和双元潜力。与现有的将 DCNN 与图形模型结合的体系结构不同,我们的 AGMN 是新颖的,因为其图形模型的参数是基于并完全适应于个别输入图像的。实验证明,我们的方法在两个公共数据集上比 2D 手关键点估计中使用的最先进方法优越了不少。