利用基于骨骼驱动的动作网络预测宽松服装的变形
基于变形分解的服装生成模型,能够高效地模拟松散服装的变形,生成带有复杂姿势驱动的变形效果,并通过对高频皱纹的增强模块进行反对抗训练,实验结果表明该方法优于现有的数据驱动方法。
Dec, 2023
TailorNet 是一个用于预测三维服装变形的神经模型,它综合考虑了服装的姿态、形状和风格等因素,同时保留了皱纹细节。该模型采用了分解变形模型的方法,通过低频和高频组合预测服装形变,并且相比之前的模型,TailorNet 可以更快地提供更加真实的结果。
Mar, 2020
本文提出了一种基于学习的服装动画方法,用于高效的虚拟试穿模拟,其中使用了基于物理的模拟,基于数据库的模型训练,并将全局服装吻合和局部服装皱纹分离。同时,使用循环神经网络来回归服装皱纹,实现了高度逼真的非线性效果。
Mar, 2019
本研究通过深度学习提出了一种解决服装动画问题的新方法,可以对任何拓扑和几何复杂度的模板服装进行动画处理,并提出了一种补充有监督学习的无监督物理学习方法,以隐式解决碰撞和增强布料质量。
Sep, 2020
我们提出了一种基于频谱的学习方法,用于生成具有动态效果和个性化细节的服装变形。通过引入频谱视角的频率控制策略、泛化形状信息的频谱描述符和集成了长短期记忆的频率可控注意机制,我们开发了一种动态服装变形估计器,实现了对不同类型服装的连续变形,并通过神经碰撞处理方法增强了服装的逼真度。实验结果表明,我们的方法在多种自由摆动的服装上表现出优越性,超过了现有方法。
Aug, 2023
首次提出从单目视频中恢复高质量可动态调整的服装的方法,通过可学习的服装变形网络和多假设变形模块实现,实验结果表明可生成具有连贯表面细节的高质量动态服装,并可在未见过的姿势下轻松实现动画效果。
Nov, 2023
本研究利用基于骨骼和网格的残差网络来预测基于骨骼的角色穿着松散或紧身服装的皱褶,其生成的细节皱褶丰富、精细,且具备低内存和计算要求,单个角色网格的预测时间为 7 毫秒。
May, 2023
本文介绍了一种解决数字化人物着装的解决方案,该方案可以通过神经网络在测试时直接生成逼真的动态服装图像序列,以解决现有工作流程中重复性高且耗时的问题,并且可以在新的身体形状和背景图像下进行微调,并提供了与现有神经渲染和图像序列转换方法的定量比较。
Feb, 2021