使用一个人的动态视频,通过引入新颖的组合式人体建模框架,结合显式建模和隐式建模的方法,实现高质量的服装 3D 人体化身建模,解决了缺乏几何和其时间对应关系的 3D 真值数据的挑战,成功地生成了具有运动相关几何和纹理的服装 3D 人体化身。
Dec, 2023
本文提出了一种自监督学习动态三维服装变形的方法,通过基于优化方案的物理模型训练神经网络,实现无需预先计算数据,节省大量时间和成本,并成功应用于包括动态变形和精细皱纹在内的交互式服装建模。
Apr, 2022
这篇论文提出了一种新方法,使用前向蒙皮模块和对抗网络模型,仅从少量生动的数据中学习生成多样化的 3D 人形模型,以便能够更自然地生成身着不同服装的人形模型,并且还可用于将人形模型拟合到原始扫描数据上。
Jan, 2022
本文提出了一种基于学习的服装动画方法,用于高效的虚拟试穿模拟,其中使用了基于物理的模拟,基于数据库的模型训练,并将全局服装吻合和局部服装皱纹分离。同时,使用循环神经网络来回归服装皱纹,实现了高度逼真的非线性效果。
Mar, 2019
首次提出从单目视频中恢复高质量可动态调整的服装的方法,通过可学习的服装变形网络和多假设变形模块实现,实验结果表明可生成具有连贯表面细节的高质量动态服装,并可在未见过的姿势下轻松实现动画效果。
Nov, 2023
使用可区分的仿真,我们提出了 DiffAvatar,一种新颖的方法,通过身体和服装的协同优化来提高数字化身的真实感,从而实现自我表达和定制;实验表明,我们的方法可以生成逼真的服装和身体形状,可轻松用于下游应用。
通过多视角捕捉视频对具有显式服装表示的可动衣物人形头像进行建模,采用二层网格表示注册每个 3D 扫描,通过时序卷积网络来预测衣物潜在编码以实现人体动力学和服装状态的交互作用。
Jun, 2021
本文提出了 DeepCloth,它是一个针对服装表示、重建、动画和编辑的统一框架,它包含了三个组件:拓扑感知的 UV 位置图、连续特征空间中的嵌入和服装动画方法。这个方法可以实现更加灵活、通用的 3D 服装数字化框架。
Nov, 2020
本文提出了一种名为 LayersNet 的数据驱动方法来对多层服装进行建模并以微物理系统中的粒子相互作用为驱动,引入一种新的旋转等效变换以更好地模拟外部力,最终通过一个包含 700K 帧的数据集 D-LAYERS 进行验证并展示出优异的表现。
May, 2023
本研究提出了一种数据驱动的方法,使用条件生成对抗网络来实现真实服装的高保真度仿真,可用于身体动画等应用。
Aug, 2018