FLEX:无需全身抓取的全身抓取
该研究介绍了 FAGhead 方法,通过使用单目视频,基于传统的三维可塑网格形状和优化中性三维高斯模型,结合可学习的高斯点位置的基于点的可学习表示场(PLRF),以及通过引入 alpha 渲染来管理化身的边缘,实现了高保真度的三维人头像重建和完全控制虚拟图像的表情和姿态,超越了现有方法的性能。
Jun, 2024
用高斯散焦渲染的三角网格中嵌入了高保真度人类虚拟角色的混合三维表示,可在现代 GPU 上达到每秒 300 帧,移动设备上达到每秒 30 帧,并通过显式网格几何和隐式外观模型化人物的运动与外观。
Mar, 2024
我们提出了 AttriHuman-3D,一种可编辑的 3D 人体生成模型,通过属性分解和索引解决了高准确性局部编辑和巨大计算成本的问题,实现了在生成的 3D 人体化身中交互式编辑选定属性并保持其他属性固定的功能。定性和定量实验证明我们的模型在不同属性之间提供了强大的解耦,允许细粒度图像编辑和生成高质量的 3D 人体化身。
Dec, 2023
我们提出了一种新颖的虚拟人物表示方法,用于高度逼真的实时动画和渲染 3D 应用程序。我们从最先进的多视角视频重建中获取高精度的动态网格序列,学习姿态相关的外观和几何形状,并利用统计身体模型来限制搜索空间,以实现更高效、有针对性的学习和定义姿态依赖性。通过在 SMPL 模型的一致 UV 空间中学习观察到的几何与拟合的 SMPL 模型之间的差异,我们能够在模型中编码姿态相关的外观和几何形状,从而不仅保证了较高水平的真实感,还促进了虚拟人物的实时处理和渲染。
Oct, 2023
通过面部图像生成声音对于开发能够使用其独特声音进行互动的虚拟人类非常重要,本文介绍了一种基于面部图像而非参考语音生成自然语音的零样本文本到语音合成模型(Face-StyleSpeech),通过结合面部编码器和韵律编码器从面部图像中分别捕捉说话者身份和韵律特征来应对这一挑战,并通过实验结果证明该模型在生成面部图像对应的自然语音方面胜过基准模型,甚至对未训练过的面部图像也有效。
Sep, 2023
通过预测用户整体运动的潜在表征并将其与跟踪传感器输入集成,提出了一种利用神经运动先验信息以提高用户运动重建准确性的方法,该方法通过有限的输入信号重建用户的全身姿势,尤其增强了从贫乏信号中重建下半身运动的强健性。
Aug, 2023
提出了一种基于强化学习的方法来处理 3D 室内场景中虚拟人类与环境以及物体的交互,包括生成运动模型、创新的碰撞回避奖励函数、基于标记体和半径场的交互感知奖励函数以及训练策略等多个方面,实验结果表明,该方法在运动的自然性和多样性方面都优于现有的人 - 场景交互综合框架。
May, 2023
DreamAvatar 是一个生成高质量、可控制姿态的 3D 人类头像的框架,它使用了可训练的 NeRF 生成 3D 点密度和颜色特征以及预先训练的文本到图像扩散模型提供 2D 自监督。通过 SMPL 模型提供粗略的姿势和形状指导生成,并引入了包含规范空间和观察空间的双重空间设计,它们之间由 NeRF 学习的变形场联系,从规范空间将优化的纹理和几何转移到目标位置头像,添加正常一致性正则化以获得更生动的几何和纹理。经过广泛的评估,证明 DreamAvatar 明显优于现有方法,为文本和形状引导的 3D 人体生成设立了新的技术水准。
Apr, 2023
AvatarPoser 是第一个仅使用用户的头部和手部运动输入来预测世界坐标中全身姿势的基于学习的方法,具有较高的准确性和实时操作速度,并能够提供支持 Metaverse 应用的全面性化虚拟人物控制和表现的实用界面。
Jul, 2022