本研究通过深度学习提出了一种解决服装动画问题的新方法,可以对任何拓扑和几何复杂度的模板服装进行动画处理,并提出了一种补充有监督学习的无监督物理学习方法,以隐式解决碰撞和增强布料质量。
Sep, 2020
该论文提出了一种名为 GarNet 的两流体系结构,利用深度网络从三维点云中提取不同级别的服装特征,并将其与从三维物体并行提取的特征融合,以建模衣物 - 身体交互,最终可在 100 倍速下生成视觉上合理的服装形状,同时平均三维点距离少于 1 厘米,可用于不同类型衣服的建模。
Nov, 2018
该研究通过骨骼运动网络来预测宽松服装网格的变形,包括低频和高频的变形,并可估算仿真参数变化引起的衣服变形,证明了该方法优于现有方法。
May, 2022
本文提出了一种无监督姿势流学习方案,通过学习源图像的姿势流,进而使用多尺度特征域对齐进行粗到细的综合,在 DeepFashion,MVC 数据集和其他真实世界数据集上进行实验,结果表明该方法在保留外观信息方面效果显著,并且具有良好的泛化性,适用于不同的服装风格和姿势类型。
Sep, 2019
TailorNet 是一个用于预测三维服装变形的神经模型,它综合考虑了服装的姿态、形状和风格等因素,同时保留了皱纹细节。该模型采用了分解变形模型的方法,通过低频和高频组合预测服装形变,并且相比之前的模型,TailorNet 可以更快地提供更加真实的结果。
Mar, 2020
通过物理嵌入学习框架,使用卷积神经网络代表物体之间的空间相关性,并通过三个分支学习布料物理的线性、非线性和时间导数特征,模型通过与传统模拟器或子神经网络相结合,测试在不同的布料动画案例中达到与基准值的一致性和预测的真实性,同时提高了推理效率,可与其他视觉细化技术整合应用于三维布料动画。
Mar, 2024
通过从大规模三维人脸数据集中学习而非模拟的方式,我们提出了一种通用的基于物理的人脸模型,使物理基础的人脸动画更容易使用。一旦训练完成,我们的模型可以快速适应任何未见过的身份,并自动生成一个可供动画使用的物理人脸模型。拟合过程非常简单,只需提供一个三维人脸扫描,甚至一个人脸图像。同时,我们提供直观的动画控制以及角色重定向的能力。所得到的动画能够具备碰撞避免、重力、麻痹、骨骼重塑等物理效果。
Feb, 2024
基于变形分解的服装生成模型,能够高效地模拟松散服装的变形,生成带有复杂姿势驱动的变形效果,并通过对高频皱纹的增强模块进行反对抗训练,实验结果表明该方法优于现有的数据驱动方法。
Dec, 2023
本文针对 Sim2Real 的任务设置,提出了一种基于新型 Deep Prior Deformation Network (DPDN) 实现的无监督域自适应方法,以改进类别级 6D 物体姿态和尺寸估计的成功率。通过将特征进行形变和对齐,DPDN 能够在特征空间建立深度对应,直接通过回归实现物体姿态和大小的估计,同时还使用自我训练和一致性识别等技术来进一步优化性能。
Jul, 2022
该研究通过使用可以捕捉衣物粗糙表面几何特征的学习的非规范化本地变形来解决现有点云或隐式表面建模方法对衣服建模的不足,可以用于学习人物特定的化身并演示其动画效果,并能从原始扫描直接学习,使得创建逼真化身的过程大大简化。
Sep, 2022