通过变形分解生成模型实现宽松服装动画
本研究通过深度学习提出了一种解决服装动画问题的新方法,可以对任何拓扑和几何复杂度的模板服装进行动画处理,并提出了一种补充有监督学习的无监督物理学习方法,以隐式解决碰撞和增强布料质量。
Sep, 2020
我们提出了一种从现实世界图像中生成逼真服装模型的方法,不论服装的形状或变形如何,该方法利用从合成数据中学习的形状和变形先验准确地捕捉服装的形状和变形,包括较大的变形,并直接应用于动画和模拟等下游应用。
Nov, 2023
本文提出了一种新的生成模型,用于 3D 服装变形,能够学习一种数据驱动的虚拟试穿方法,并成功地解决了服装和身体之间的碰撞问题。通过使用服装的规范空间来训练生成模型,实现了一种自我监督的碰撞术语,可以可靠地解决服装和身体之间的相互渗透。
May, 2021
首次提出从单目视频中恢复高质量可动态调整的服装的方法,通过可学习的服装变形网络和多假设变形模块实现,实验结果表明可生成具有连贯表面细节的高质量动态服装,并可在未见过的姿势下轻松实现动画效果。
Nov, 2023
本文提出了一种自监督学习动态三维服装变形的方法,通过基于优化方案的物理模型训练神经网络,实现无需预先计算数据,节省大量时间和成本,并成功应用于包括动态变形和精细皱纹在内的交互式服装建模。
Apr, 2022
在本文中,我们介绍了一种使用非常稀疏的多视角视频(我们的设置中为 4-8 个)生成穿着宽松服装的可动画人类化身的新方法 AniDress。为了在这种情况下捕捉和学习宽松服装的外观,我们采用从基于物理的模拟数据中获得的虚拟基于骨骼的服装绑定模型。通过一组低维骨骼变换,这种模型使我们能够捕捉和渲染复杂的服装动态。技术上,我们开发了一种从稀疏多视角视频中估计时间一致服装动态的新方法。为了利用粗略估计建立逼真的未见状态渲染,我们引入了一个在身体和服装运动上都受条件约束的基于姿势驱动的可变形神经辐射场,提供了两部分的显式控制。实验证明,我们的方法能够呈现高度偏离身体的自然服装动态,并且在未见视角和姿势上具有良好的泛化性能,超过现有方法的表现。代码和数据将公开提供。
Jan, 2024
本文提出了一种基于学习的服装动画方法,用于高效的虚拟试穿模拟,其中使用了基于物理的模拟,基于数据库的模型训练,并将全局服装吻合和局部服装皱纹分离。同时,使用循环神经网络来回归服装皱纹,实现了高度逼真的非线性效果。
Mar, 2019
我们提出了一种基于频谱的学习方法,用于生成具有动态效果和个性化细节的服装变形。通过引入频谱视角的频率控制策略、泛化形状信息的频谱描述符和集成了长短期记忆的频率可控注意机制,我们开发了一种动态服装变形估计器,实现了对不同类型服装的连续变形,并通过神经碰撞处理方法增强了服装的逼真度。实验结果表明,我们的方法在多种自由摆动的服装上表现出优越性,超过了现有方法。
Aug, 2023