基于 RGB 图像的三维虚拟服装建模
Deep Fashion3D 是迄今为止最大的 3D 服装模型集合,包含 2078 个模型和丰富的注释信息,并引入了一种新的单视角服装重建方法。
Mar, 2020
本研究提出了一种从单张照片中生成人体服装真实 3D 模型的算法,该算法可以还原出服装的全局形态、几何信息和细节,结合参数估计、语义分析和物理模拟等技术,可应用于虚拟试穿、服装转化、数字人物的服装动画等领域。
Aug, 2016
该研究介绍了一种名为 MGN 的多服装网络模型,利用 SMPL 模型,通过视频中几帧图像(1-8)预测身体的形状及所穿服装,该模型能够更好的控制身形和服装的关系。为了训练 MGN,研究人员利用一个数字化的衣柜,该衣柜中包含了 712 件数字化服装模板以及真实人物在不同姿势、身着不同服装时的 3D 扫描数据。该数字化衣柜、MGN 模型以及 SMPL 模型的代码均可公开获取。
Aug, 2019
本文提出了一种基于 SMPL 的分层服装表示方法,通过使服装区分于身体网格并独立于其蒙皮权重,实现了更高的表达能力和更好的几何恢复效果,并结合训练数据集展示了其在服装重构和身体形状恢复方面的优势,同时也可以实现像重新姿势、服装转移和服装纹理映射等应用。
Apr, 2020
我们介绍了 Garment3DGen,一种从基础网格中合成 3D 服装资产的新方法,通过单个输入图像作为指导,用户可以根据真实和合成图像生成 3D 纹理服装。使用 Garment3DGen,用户可以生成所需的纹理 3D 服装而无需艺术家干预。
Mar, 2024
本文提出了一种基于学习的模型,利用少量单目视频帧 (1-8 帧) 从移动的人中推断出其个性化的 3D 形状,可在不到 10 秒内达到 5mm 的重建精度。该模型学习预测一个统计体型模型的参数和实例化偏移量,同时加入衣服和头发的形状,具有快速和准确的预测,这得益于其对 T-pose 空间的预测和从上往下和从下往上两个视图预测的结合。该模型仅基于合成的 3D 数据进行学习,可将可变数量的帧作为输入,即使仅有一张图像,也能以 6mm 的精度重建形状。3 个不同数据集的结果表明了本方法的有效性和准确性。
Mar, 2019
本文介绍了一种解决数字化人物着装的解决方案,该方案可以通过神经网络在测试时直接生成逼真的动态服装图像序列,以解决现有工作流程中重复性高且耗时的问题,并且可以在新的身体形状和背景图像下进行微调,并提供了与现有神经渲染和图像序列转换方法的定量比较。
Feb, 2021
本文提出了一种从 2D 图像生成逼真的 3D 人物的新方法,并使用多个辨别器和 2D 法线图形式的几何线索来训练模型,取得了在几何和外观方面超过以前 3D 和关节感知方法的性能,通过系统的消融研究验证了模型的有效性和每个组件的重要性。
May, 2023
本文提出了第一个基于图像的全身穿着人群生成模型,通过从大规模图像数据库中学习生成模型,我们克服了人体姿态、形状和外观方面的高变异性挑战,并提出了一种可分解生成模型以生成逼真的人物图像。该方法有效地实现了数据驱动的人物生成方法。
May, 2017