可控的人体动作合成的基于点的辐射场
本研究提出了一种从稀疏的多视角 RGB 视频中重建可控的隐式 3D 人体模型的新方法,使用网格表面点和身体网格的符号距离来定义神经场景表示,并通过改进的顶点法线的重心插值将点投影到网格表面上,实现了更高质量的新视角和新姿势合成,同时支持容易控制的身体形状和服装。
Jan, 2022
提出了 VeRi3D,一种基于顶点的生成型人体辐射场,通过使用 SMPL 的参数人体模板来实现顶点参数化,从而解决了学习人体生成模型的泛化能力和可控性问题,能够自由地控制相机姿态、人体姿态、形状,以及进行部分级别的编辑,实现了生成逼真的人体图像。
Sep, 2023
本文提出了可动态变化神经辐射场 (animatable NeRF) 的方法用于从单眼视屏中创建细节丰富的人物角色,通过引入显式姿势引导变形的方式学习场景表示网络扩展神经辐射场 (NeRF) 到带有人体运动的动态场景,并展示了该方法在人物几何和外观重建、真实感渲染和动画设计等方面取得了突破性成果。
Jun, 2021
提出了 PixelHuman,一种新颖的人类渲染模型,可以从几张具有未知身份、视角和姿势的人的图像中生成可动画的人类场景,并通过神经辐射场和姿势感知像素对齐特征合成每个目标场景,在几张图像中实现了多视角和新颖姿势合成的最新性能。
Jul, 2023
基于 NeRF 的人体表演姿态依赖渲染的新方法,通过将辐射场围绕 SMPL 人体模型进行扭曲,实现了新的表面对齐表示,可以通过骨骼关节参数和视点来实现动画化,并通过引入新的重新映射过程来实现高质量渲染。
Nov, 2023
本文提出了一种使用基于点的表示和 Linear Blend Skinning(LBS)来联合学习动态 NeRF 和相关骨骼模型的新方法,在维持可比工作的情况下显著缩短了学习时间,在常见数据集上展示了其在重建可动物体方面的多样性和灵活性。
May, 2023
使用基于神经场景渲染技术的新型表示方法,将结构化本地辐射场锚定到人体模板节点上,将服装变形分解为骨架运动、节点残差翻译和每个辐射场内的动态细节变化,支持各种服装类型的自动构建可动画人形化身,并在新姿势下生成真实的动态细节图像。
Mar, 2022
本文提出了一种新颖的 3D 组合表示方法,将离散和连续的体积表示方法相结合,结合了粗糙的网格动画代码和连续的学习场景功能,使用可区分的体积渲染来计算动态人头和上半身的新视图,并在使用仅 2D 监督时进行端到端的训练,实现了动态人头和上半身新视图综合的最新最佳结果。
Dec, 2020
本论文提出了一种名为 MonoHuman 的新型框架,该框架使用共享双向变形模块和前向对应搜索模块来创造出一个可塑性质高的形变场,其利用离线关键帧信息来推断人体不同部位运动的相关特征,使得生成的虚拟角色在姿势、细节和视角等方面更为真实。与其他现有方法相比,该框架产生的效果更为卓越。
Apr, 2023