SMPLX-Lite:带有丰富几何和纹理注释的逼真驾驶化身基准
本研究提出了一种新的深度学习网络,用于将 3D 模型转换为逼真的照片,旨在弥合现有深度生成模型不能灵活控制的瓶颈问题,同时也改善了传统三维图形处理渲染机制的不足之处。
Aug, 2020
我们提出了 SMPLitex,这是一种从单张图片中估计和操作人类完整 3D 外观的方法。SMPLitex 基于最近提出的 2D 图像生成模型,并通过对输入图像上的像素到表面对应进行计算将其扩展到 3D 领域。我们首先训练了一个完整的 3D 人类外观生成模型,然后通过将生成模型与主体的可见部分相关联,将其适应于输入图像。此外,我们提出了一个新的高质量人类纹理数据集,通过对 SMPLitex 进行主体描述和图像采样构建。我们在三个公开数据集中进行定量和定性评估,结果显示 SMPLitex 明显优于现有的人类纹理估计方法,同时允许进行更多样化的任务,如编辑,合成和操作。
Sep, 2023
本文使用图像到图像翻译方法在 SMPL 模型的 UV 空间中推断纹理和几何学,以此预测人物的完整三维化身。通过此方法,我们得到的预测纹理和几何学可以应用到 SMPL 模型上,从而自然地对新的姿势、形状和衣物进行推广。
Aug, 2019
为了实现真实的 AR/VR 和数字娱乐体验,我们提出了第一个点云人物模型,它涵盖了数字人物的全部表达范围。我们使用两个多层感知器来建模姿势相关的变形和线性蒙皮权重。外观的表示依赖于解码器和附加到每个点的特征。与替代的隐式方法相比,朝向点的表示不仅提供了更直观的方式来建模人物动画,还显著减少了训练和推理时间。此外,我们提出了一种新的方法将语义信息从 SMPL-X 模型转移到点云中,从而更好地理解人体运动。通过利用点的语义信息,我们可以通过在不同主体之间交换相同类别的点来促进虚拟试穿和人物组合。实验结果证明了我们提出方法的效果。
Nov, 2023
本研究关注于使用多视图和多姿势的人体输入,重建位于规范空间中的衣着人体。我们利用 SMPLX 模型在规范空间中的几何先验,学习了几何重建的隐式表示,并在姿势网格和规范空间网格之间学习潜在编码。最终,我们的工作在 WCPA MVP-Human Body Challenge 中实现了第三的表现。
Dec, 2022
本研究聚焦于通过学习来自单目 RGB 视频的人类化身的表现力,介绍了一种可驾驶的人类模型 EVA,该模型通过基于 3D 高斯分布和 SMPL-X 的精细塑造,旨在提升表现力;研究重点包括解决 SMPL-X 模型与 RGB 帧对齐的重要性、上下文感知的密度控制策略以及预测的反馈机制。在两个基准测试上进行的大量实验证明了我们的框架在定量和定性上的优越性,尤其在手部和面部细节方面。
Jul, 2024
本研究提出了通过单目图像计算实现人体姿态、手部姿态和面部表情三维模型的方法,主要使用了一个新的、一致的、包含完全表达手和面部表情的人体模型 SMPL-X,可以对受控图像和自然环境图片进行三维模型匹配。
Apr, 2019
从单目输入视频中生成可动画的人体化身的 HAHA - 一种新方法。该方法通过学习高斯喷洒和纹理网格在高效和高保真度渲染之间的权衡,表现出其效率来控制 SMPL-X 参数模型。我们的模型仅在 SMPL-X 网格中需要的区域(如头发和网格之外的衣物)应用高斯喷洒。这样可以使用最少的高斯函数来表示完整的化身并减少渲染伪影。这使我们能够处理传统上忽略的手指等小身体部分的动画。我们在两个开放数据集 SnapshotPeople 和 X-Humans 上展示了我们方法的有效性。在 SnapshotPeople 上,我们的方法的重建质量与最先进方法相当,而使用的高斯函数不到三分之一。HAHA 在 X-Humans 的新姿势上在定量和定性方面优于之前最先进的方法。
Apr, 2024
本文提出 AvatarGen 方法,是第一种通过仅使用 2D 图像训练,能够生成高保真度外观和可控几何形状的、解耦式的可控人体动画的方法。
Nov, 2022
从 AR / VR 设备中估计 3D 全身化身对于创建 AR / VR 应用程序中的沉浸式体验至关重要。本文提出了一种分层方法,将传统的全身化身重建流程解耦为两个阶段,首先重建上半身,然后在先前阶段的基础上重建下半身。通过潜在扩散模型作为强大的概率生成器,并训练其遵循由 VQ-VAE 编码器 - 解码器模型探索的解耦动作的潜在分布,我们在 AMASS mocap 数据集上进行的广泛实验证明了我们在全身动作重建方面的最先进性能。
May, 2024