ICON: 从法向量中获取隐式衣着人
ELICIT 是一种基于 3D 几何和视觉语义先验的模型,借助于 CLIP 模型以及基于分割的采样策略,可以从单张图片中生成逼真的、可动画的 3D 人体模型。
Dec, 2022
本文提出了一个高效的三维服装化身重建框架。该框架通过高精度的基于优化的方法和高效的基于学习的方法相结合,以从单个图像中实现高保真度的服装化身重建为目标。通过在规范空间中以基于学习的方式使用隐式模型来学习人的一般形状,并通过以优化方式在姿态空间中估计非刚性变形来细化表面细节,使用超级网络来生成良好的初始化,从而极大地加速了优化过程的收敛。在各种数据集上的大量实验表明,所提出的服装化身重建框架成功地为现实场景中的任意穿着的人类产生了高保真度的化身。
Apr, 2023
使用一个人的动态视频,通过引入新颖的组合式人体建模框架,结合显式建模和隐式建模的方法,实现高质量的服装 3D 人体化身建模,解决了缺乏几何和其时间对应关系的 3D 真值数据的挑战,成功地生成了具有运动相关几何和纹理的服装 3D 人体化身。
Dec, 2023
本文介绍了 SCANimate 系统,该系统采用弱监督学习方法,将原始三维扫描的拍穿人类转化为可动漫化的人物角色,在不需要表面网格配准的情况下实现装束的自然移动和变形,并引入了一种本地姿势感知隐式函数来模拟姿势依赖性形变。
Apr, 2021
我们提出了 IntrinsicAvatar,一种从仅单目视频中恢复着装人类角色的内在属性,包括几何、反射率、材质和环境光照的新方法。
Dec, 2023
本文提出了 ARCH(可动画重建的带衣人),这是一种新型的端到端框架,用于从单个图像准确重建可动画的 3D 带衣人。与现有方法相比,ARCH 是一个基于学习的姿势感知模型,可以从单个自由 RGB 图像中生成详细的 3D 带骨骼全身人型,该模型通过创建语义空间和语义变形场来减少姿势变化和遮挡引起的几何模糊。通过空间局部特征的隐式函数表示来学习详细的几何形状和外观,同时提出了对 3D 重建的每个像素进行透明度感知的可微分渲染的额外像素监督。实验结果表明,ARCH 可以提高带衣人的重建保真度,并且与公共数据集上最先进的方法相比,重建误差降低了 50%以上。文中还展示了许多文献中未曾见过的高质量可动画重建人型的定性实例。
Apr, 2020
本研究提出了 ARCH++,一种使用图像的方法来重建具有任意服装的三维人物形象,通过引入端到端的基于点的几何编码器、共同监督框架和图像到图像转换网络来解决重建质量中存在的局限性,同时在公共基准测试和用户研究中证明了实现了重建质量和真实性的改进。
Aug, 2021
本研究提出了一种新的端到端学习框架,可以从一张图像中获取多人的详细且具有空间连续性的重建,并能解决多人姿态、遮挡、衣着等问题带来的困难,实现了对穿衣人体在任意姿势下的模型自由_implcicit 3D 重建和同步估计。针对模型和数据集,实验结果表明,该方法与现有的竞争方法相比,具有更高的精度和完整性,呈现了最先进的性能。
Apr, 2021
本文提出 AvatarGen 方法,是第一种通过仅使用 2D 图像训练,能够生成高保真度外观和可控几何形状的、解耦式的可控人体动画的方法。
Nov, 2022