学习 3D 服装动画的安键变换
基于变形分解的服装生成模型,能够高效地模拟松散服装的变形,生成带有复杂姿势驱动的变形效果,并通过对高频皱纹的增强模块进行反对抗训练,实验结果表明该方法优于现有的数据驱动方法。
Dec, 2023
本研究通过深度学习提出了一种解决服装动画问题的新方法,可以对任何拓扑和几何复杂度的模板服装进行动画处理,并提出了一种补充有监督学习的无监督物理学习方法,以隐式解决碰撞和增强布料质量。
Sep, 2020
该研究提出了一种新颖的结构感知运动建模方法,即可变形锚定模型 (DAM),用于无监督学习,通过引入运动锚定和潜在根锚定,自动发现任意对象的运动结构并进行运动传递,实现了优于现有最先进方法的性能。
Apr, 2022
TailorNet 是一个用于预测三维服装变形的神经模型,它综合考虑了服装的姿态、形状和风格等因素,同时保留了皱纹细节。该模型采用了分解变形模型的方法,通过低频和高频组合预测服装形变,并且相比之前的模型,TailorNet 可以更快地提供更加真实的结果。
Mar, 2020
本文提出了一种基于学习的服装动画方法,用于高效的虚拟试穿模拟,其中使用了基于物理的模拟,基于数据库的模型训练,并将全局服装吻合和局部服装皱纹分离。同时,使用循环神经网络来回归服装皱纹,实现了高度逼真的非线性效果。
Mar, 2019
使用深度形状表示,在单个图像中使用可学习的 Anchored Unsigned Distance Function(AnchorUDF)表示 3D 服装模型,通过预测无符号距离场(UDF)来实现开放服装表面建模和更好的控制拓扑结构,使用像素对齐的本地图像特征和一组锚点来富化查询点的 3D 位置特征,实验证明 AnchorUDF 在单视图 3D 服装重建方面具有最先进的性能。
Aug, 2021
本文提出了一种自监督学习动态三维服装变形的方法,通过基于优化方案的物理模型训练神经网络,实现无需预先计算数据,节省大量时间和成本,并成功应用于包括动态变形和精细皱纹在内的交互式服装建模。
Apr, 2022
首次提出从单目视频中恢复高质量可动态调整的服装的方法,通过可学习的服装变形网络和多假设变形模块实现,实验结果表明可生成具有连贯表面细节的高质量动态服装,并可在未见过的姿势下轻松实现动画效果。
Nov, 2023
本文提出了一种新的生成模型,用于 3D 服装变形,能够学习一种数据驱动的虚拟试穿方法,并成功地解决了服装和身体之间的碰撞问题。通过使用服装的规范空间来训练生成模型,实现了一种自我监督的碰撞术语,可以可靠地解决服装和身体之间的相互渗透。
May, 2021