本文提出了可动态变化神经辐射场 (animatable NeRF) 的方法用于从单眼视屏中创建细节丰富的人物角色,通过引入显式姿势引导变形的方式学习场景表示网络扩展神经辐射场 (NeRF) 到带有人体运动的动态场景,并展示了该方法在人物几何和外观重建、真实感渲染和动画设计等方面取得了突破性成果。
Jun, 2021
使用双分支网络和体积渲染生成照片级逼真的 3D 人体图像,通过限制频率分量和观察帧一致性,实现了保留高频细节和确保身体轮廓一致性的高保真度人体 3D 模型重建。
Jun, 2024
基于 NeRF 的人体表演姿态依赖渲染的新方法,通过将辐射场围绕 SMPL 人体模型进行扭曲,实现了新的表面对齐表示,可以通过骨骼关节参数和视点来实现动画化,并通过引入新的重新映射过程来实现高质量渲染。
Nov, 2023
本文提出了一种基于神经径向基方法的生成神经体模型,通过学习未标记的单目视频,在不需要地面真实标签的情况下,共同完善的姿势和体积身体形状和外观,有效改善了多样化数据集上的准确性,是对使用反向运动学的引入的一个重要贡献。
Feb, 2021
本文提出了一种基于动态神经辐射场和网格参数化三维人体模型的新方法,通过映射表征人体在不同姿势和角度的变化特征,实现了高质量渲染。
Aug, 2022
本文提出了一个新的框架,用于从野外视频中重建人体和场景,并在单个视频上提供新的人体姿势和视角渲染的方法。通过训练两个 NeRF 模型(human 和 scene),并依赖现有方法估计人体和场景的大致几何形状,可以从观察空间创建到无关姿态的规范空间的偏移场,进而在规范空间中训练人体模型。我们的方法能够从仅 10 秒的视频剪辑中学习特定主题的细节,包括服装褶皱和配件,并提供在新视角和新姿势下人体的高质量渲染和背景。
Mar, 2022
本论文提出了一种名为 MonoHuman 的新型框架,该框架使用共享双向变形模块和前向对应搜索模块来创造出一个可塑性质高的形变场,其利用离线关键帧信息来推断人体不同部位运动的相关特征,使得生成的虚拟角色在姿势、细节和视角等方面更为真实。与其他现有方法相比,该框架产生的效果更为卓越。
Apr, 2023
本文提出了一种方法,将人体模型与可微分渲染相结合,从多视点 RGB 视频中创建可动态的穿着衣服的人形化身,其具有细节化的几何结构,并且能够适应超出分布范围的姿势。
Oct, 2022
使用基于神经场景渲染技术的新型表示方法,将结构化本地辐射场锚定到人体模板节点上,将服装变形分解为骨架运动、节点残差翻译和每个辐射场内的动态细节变化,支持各种服装类型的自动构建可动画人形化身,并在新姿势下生成真实的动态细节图像。
使用动态神经辐射场模型重新构建并生成能够通过单目输入数据学习的场景表示,结合场景表示网络和低维可变形模型进行虚拟场景生成。
Dec, 2020