本文提出了使用由3D运动捕捉数据生成的合成真实人形图像的大规模数据集(SURREAL)来训练卷积神经网络(CNNs),并且通过该数据集训练的CNNs在RGB图像中可以准确地进行人物深度估计和人物部分分割。
Jan, 2017
该论文介绍了如何从单目视频中获取任意人物的准确三维身体模型和纹理,该方法仅需使用智能手机或网络摄像头,使每个人都能创建自己的全可动数字双胞胎,如社交VR应用或在线时尚购物的虚拟试穿。
Mar, 2018
该论文提出了一种基于卷积神经网络的直接预测方法,将参数化的统计全身形状模型与2D关键点和掩膜相结合,实现从单张彩色图像中估计全身的 3D 姿态和形状,得到了比先前基准更好的结果。
May, 2018
本文提出使用卷积神经网络和编码器-解码器神经网络从单张彩色图像中直接回归3D人体网格,利用高效的3D人体形状和姿势表示方法,在Human3.6M、SURREAL和UP-3D等多个3D人体数据集上实现了最新性能。
Mar, 2019
该论文提出了一种新的框架,利用深度神经网络和 Hierarchical Mesh Deformation 技术综合使用人体关节、轮廓和像素的着色信息,从而在单张图片中精确恢复人体形状。实验证明,我们的方法在 2D IoU 计算和 3D 距离计算的准确度上都优于现有的其他方法。
Apr, 2019
本文解决从单张图像中估计3D人体姿态和形状的问题,提出在保留SMPL模板网格拓扑的同时,使用Graph-CNN直接回归网格顶点的三维位置,与基于模型参数回归的可比较基线相比,我们的方法具有更好的效果。
May, 2019
本文提出了一种端到端可训练模型,以单个RGB图像感知3D场景,估计相机姿态和室内布局,并重建人体和物体网格。通过对所有估计方面施加全面而复杂的损失,我们证明了我们的模型优于现有的人体网格方法和室内场景重建方法。据我们所知,这是第一个在网格级别输出对象和人体预测,并对场景和人体姿态进行联合优化的模型。
Dec, 2020
本研究提出了一种新的任务,在人体形态和姿势估计中使用多幅图像组成的分布预测模型,使我们能够量化姿势预测的不确定性,并提高了 3D 人体形态估计度量标准。
Mar, 2021
通过采集互联网上的时尚模特图片和一小部分人体测量数据,以及用于各种三维身体网格的语言形状属性,我们训练了一种名为SHAPY的神经网络,该模型可从RGB图像中回归出三维人物的姿态以及形状。在新的HBW数据集上进行测试,SHAPY在三维人体形状估计任务上表现出色,明显优于现有技术。
Jun, 2022
通过单目图像构建完整的3D人体形状的新框架,通过使用多视角、多相机的未经校准和未经注册的图像集合来恢复单目输入的丢失信息,并生成高质量的非可见区域的细节。
Jul, 2024