HPERL:基于 RGB 和 LiDAR 的三维人体姿态估计
利用 RGBD 图像估算 3D 人体姿态,通过关键点检测器和深度信息实现 3D 提升,在真实环境下通过学习演示框架指示服务机器人模仿人类教师的操作,超越了单眼调色板和深度姿态估计方法的性能。
Mar, 2018
本文提出了一种基于单目摄像头和单个 LiDAR 的方法,用于大规模场景下的 3D 多人姿态估计。通过设计一种有效的多模态融合策略,并充分利用时间信息来指导网络学习自然和连贯的人类运动,以点云的固有几何约束为自我监督,用图像上的 2D 特征点进行弱监督,无需依赖于任何 3D 姿态注释。实验结果表明了该方法的优越性和泛化能力。
Nov, 2022
本文提出了一种在自动驾驶方案中的多模态方法,使用 2D RGB 图像的弱监督进行 3D 人体姿势估计(HPE),进而在 Waymo 开放数据集中取得了比仅基于相机和 LiDAR 的模型更好的效果。
Dec, 2021
一篇研究在自动驾驶汽车中进行弱监督的 3D 人体姿势估计的论文,通过相机和 LiDAR 数据的高级传感器融合实现了简单而高效的方法,通过使用现成的 2D 关节提取器和从 LiDAR 到图像的投影生成虚拟标签进行训练,在弱监督和监督学习设置中均取得了优于现有方法的结果。
Jul, 2023
本文提出了一种利用 RGB-D 图像进行弱监督训练的网络,用于多人绝对姿态估计,可缓解缺乏大规模、多样化数据集的问题,并在多个数据集中实现了持续的错误率改进与在 MuPoTS-3D 数据集上的全球领先结果
Apr, 2020
本文介绍了一种首个能够在实时环境中处理基本遮挡、能够适应 360 度全景相机和毫米波雷达传感器的多人姿态估计系统,通过使用实时的轻量级 2D-3D 姿态提升算法,在室内外环境中实现了准确的性能表现,提供了一种经济实惠且可扩展的解决方案,并且不论检测到的个体数量如何,系统的时间复杂度保持几乎恒定,能够在商用 GPU 的笔记本上达到大约 7-8 帧每秒的帧率。
Mar, 2024
利用稀疏的未校准深度相机提供的 RGBD 视频流,我们提出了一种简单的多视角深度人体姿态估计 (MVD-HPE) 管线,用于联合预测相机姿态和 3D 人体姿态,无需训练深度 3D 人体姿态回归模型。
Jan, 2024
本文介绍了基于深度学习的 2D 和 3D 人体姿态估计的综述,系统分析和比较了这些解决方案,对研究的挑战,应用和未来方向进行了讨论,包括 250 多篇研究论文以及姿态估计数据集和评估指标的定量表现比较和讨论。
Dec, 2020
通过弱监督学习和人群注释者提供的深度相对估计信号,我们提出一种 3D 人体姿势估计算法,用于只在 2D 输入图像中学习。结果竞争力优于目前现有算法,可为在未经过精心控制的现实世界中进行 3D 姿势估计开辟道路。
May, 2018
本文提出了一种全面的基于学习的、视野距离感知的自顶向下的方法,用于从单个 RGB 图像中估计多人的 3D 姿态,并通过人体检测、3D 人体根位置定位和相对根姿态估计模块,实现了与最先进单人 3D 姿态估计模型可相媲美的结果,同时也比公开数据集上之前的 3D 多人姿态估计方法表现更出色。
Jul, 2019