本研究利用卷积神经网络进行人体姿态估计,通过利用关系和空间上下文,提出了一种特殊的 CNN 级联架构,并能够在部分遮挡的情况下,鲁棒地推断姿势,该级联架构能够指导网络集中精力在图像的哪个位置,并明确编码部分限制和上下文约束,并能够应对遮挡。我们的级联结构表现出色,能够在 MPII 和 LSP 数据集上取得最佳的表现。
Sep, 2016
本文提出了一种基于深度学习和光流的人体姿势估计算法,通过引入时间序列信息和光流辅助,该算法在多个姿态估计数据集上实现了超越当前最先进方法的性能。
Jun, 2015
该研究提出了基于深度卷积去卷积模型的鲁棒人体姿态估计方法,通过多尺度的上下文监督和全局回归的方式增强模型的姿态鲁棒性,并在 MPII 和 FLIC 数据集上展示了具有竞争力的性能。
Aug, 2018
本研究提出了一个称为 HybridPose 的混合模型,通过最大化两种方法的优点来互相克服它们的缺点,同时引入自相关损失来注入关键点坐标和可见性之间的空间依赖性,从而在不降低姿势估计准确性的情况下展示了关键点的可见性。
May, 2023
本文提出了一种新的基于卷积神经网络的人体姿势估计的架构和改进的学习技术,能够学习底层特征和高级弱空间模型,在姿态估计中比现有传统架构实现了显著改善。同时,本文探讨了一些研究中发现的经验教训,表明在一些情况下,甚至仅涵盖图像中的几个像素的特征检测器也可以产生出强的特征检测结果,并且高级空间模型对姿势估计的改善效果相对较小。本文的主要贡献在于展示了一种特定变体的深度学习可以在该任务上胜过所有现有传统架构。
Dec, 2013
本文提出了一种基于多帧和时序信息的人体姿态估计方法。该方法包含三个模块:姿态时序合成器、姿态残差融合模块和姿态校正网络。在 PoseTrack2017 和 PoseTrack2018 数据集上进行的实验结果表明,该方法取得了最佳效果,并已发布代码以期促进未来的研究。
Mar, 2021
本文介绍了一种基于向下拼接的人体姿态估计框架,其中通过关键点检测和聚类两个阶段进行处理。在该框架下,本文提出了多种方案,包括使用关键点热图进行像素级别的关键点回归、采用像素级别空间变换网络学习适应性表示处理尺度和方向差异并提高关键点回归质量,以及使用联合形状和热值评分方案提升预测姿态的可靠性,最终获得了最先进的人体底部向上姿态估计结果。
Jun, 2020
该研究提出了一种个性化 ConvNet 姿态估计器,它可以根据帧与帧之间的时间跨度和人物外貌的特点,在视频中生成高精度的姿态标注,并利用自评模型筛选高质量的标注,并通过自动化的 fine-tune 训练方法将其个性化,相比于通用的 ConvNet,对目标视频的姿态估计得到了大幅提升,表现比现有方法更好。
Nov, 2015
本文提出了一种从单个静态图像中估计人体姿态的新方法,其采用卷积神经网络,使每个图像位置基于密集的多目标投票来预测人体关键点位置,并计算出相应关节的联合概率,最终通过关键点投票和联合概率来确定最优的人体姿态配置,并在 MPII Human Pose 数据集上展示了较为竞争的性能。
Mar, 2016
本论文利用 pytorch 实现了一种深度高分辨率表示学习方法用于人体姿态估计,通过建立多分辨率子网并在并行连接中进行信息融合,最终得到更精准、更高精度的关键点热图,实验证明该方法在 COCO 关键点检测数据集和 MPII 人体姿态数据集上具有显著优势。
Feb, 2019