基于身体关键点和 Seq2Seq 架构的跌倒预测
该论文提出了一种基于最新的人体检测和视频理解技术的轻量化人体关键点估计和跟踪方法,在帧级别和短视频片段中进行关键点估计,并进行轻量级跟踪,领先于多项竞争者,成为 2017 年 ICCV PoseTrack 的关键点跟踪挑战的最佳表现。
Dec, 2017
本文介绍了一种基于语义分割的算法,它使用 3D 深度传感器在地面上检测倒下的人,并通过使用 SVM 分类器来实现。该算法可在配备标准笔记本电脑的移动机器人上执行,并在实际情景中显示出鲁棒性和速度。
Mar, 2017
该论文提出了一种用于多人检测和二维姿势估计的方法,采用两个阶段的简单而强大的自上而下方法,结合使用 Faster RCNN 检测器、关键点基于非最大抑制(Non-Maximum-Suppression)和置信度计算,利用 COCO 数据集训练得到的该系统具有较高的平均精度和表现。
Jan, 2017
本文提出一种将局部信息和全局信息相结合的方法,使用轻量级的无监督关键帧提出网络 (K-FPN) 来选择含有代表性信息的帧,再使用学习的字典来恢复整个动作序列的人体姿态估计算法。在实验中,该方法在 Penn Action 和 sub-JHMDB 数据集上达到了最佳准确率,并实现了大量的速度提升。
Jul, 2020
提出了一种基于 KeyTrack 的多人姿势跟踪方法,使用 Pose Entailment 方法跟踪人体关键点,使用 Transformer-based 网络分类判断姿势是否在时间上紧随另一个姿势,同时还使用一种无需参数的关键点精细化技术改进估计方法,在 PoseTrack'17 和 PoseTrack'18 基准测试中取得了最先进的结果。
Dec, 2019
本文提出一种以单个图像和动作类别为条件的深度视频预测模型,通过检测物体关键点并将关键点序列预测为未来运动,然后通过平移输入图像来生成未来帧。该方法通过无监督方式训练来检测任意对象的关键点,并使用原始视频的检测关键点作为伪标签学习物体运动,实验结果表明,我们的方法可以应用于各种数据集,而不需要对视频中的关键点进行标注,检测到的关键点类似于人工标注的标签,并且与以前的方法相比,预测结果更加真实。
Oct, 2019
本文提出了一种高效利用视频序列中连续帧运动信息来恢复人的三维姿态的方法,并通过回归边界框的时空体到中心帧的 3D 姿势来改进现有方法。同时,为了最大限度地发挥这种方法的潜力,本文阐明必须补偿连续帧中的运动,以使被测量者保持中心,从而能够有效地消除歧义并在 Human3.6m、HumanEva 和 KTH Multiview Football 3D 人体姿态估计基准测试中取得显著改进。
Nov, 2015