学习将服装图像的纹理转移到3D人体模型
本研究提出了一种从单张照片中生成人体服装真实3D模型的算法,该算法可以还原出服装的全局形态、几何信息和细节,结合参数估计、语义分析和物理模拟等技术,可应用于虚拟试穿、服装转化、数字人物的服装动画等领域。
Aug, 2016
本文提出了一种新颖的方法,可以从照片中构建3D虚拟服装模型,通过利用多任务学习网络JFNet以及语义部件来提取颜色纹理信息,进行虚拟现实和混合现实的应用。
Jul, 2019
本文使用图像到图像翻译方法在SMPL模型的UV空间中推断纹理和几何学,以此预测人物的完整三维化身。通过此方法,我们得到的预测纹理和几何学可以应用到SMPL模型上,从而自然地对新的姿势、形状和衣物进行推广。
Aug, 2019
本文提出了一种基于SMPL的分层服装表示方法,通过使服装区分于身体网格并独立于其蒙皮权重,实现了更高的表达能力和更好的几何恢复效果,并结合训练数据集展示了其在服装重构和身体形状恢复方面的优势,同时也可以实现像重新姿势、服装转移和服装纹理映射等应用。
Apr, 2020
本文提出了 DeepCloth,它是一个针对服装表示、重建、动画和编辑的统一框架,它包含了三个组件:拓扑感知的 UV 位置图、连续特征空间中的嵌入和服装动画方法。这个方法可以实现更加灵活、通用的3D服装数字化框架。
Nov, 2020
该论文介绍了一种从图像中实现3D服装的逼真重建的方法,通过一种基于图像纹理的新框架,使用姿势信息从单张图像中生成3D服装的纹理图像,验证了该方法的有效性,并提供了一个大型数据集,对未来的服装纹理重建和合成研究具有重要参考价值。
Oct, 2023
3D虚拟试穿是一个具有广泛潜力且备受关注的挑战性任务,本文提出了一种基于分解的隐式服装转换网络(DI-Net),通过像素对齐的隐式函数构建方法,实现了从任意视角重建3D人体网格和保留其纹理恢复的能力,在3D虚拟试穿任务中展现出优异的性能和效果。
Nov, 2023
我们介绍了Garment3DGen,一种从基础网格中合成3D服装资产的新方法,通过单个输入图像作为指导,用户可以根据真实和合成图像生成3D纹理服装。使用Garment3DGen,用户可以生成所需的纹理3D服装而无需艺术家干预。
Mar, 2024
本研究提出了一种名为GarmentDreamer的新型方法,它利用3D高斯喷雾(GS)作为指导,从文本提示中生成适用于仿真的3D服装网格。与使用由生成模型直接预测的多视图图像作为指导相比,我们的3DGS指导确保了服装变形和纹理合成的一致优化。通过全面的定性和定量实验证明了我们方法的有效性,并展示了GarmentDreamer相对于现有最先进方法的卓越性能。
May, 2024
本研究解决了现有技术在复杂背景下难以准确转移服装纹理的问题。提出的FabricDiffusion方法通过提取无失真、可拼接的纹理材料,并利用去噪扩散模型进行处理,从而在3D服装上实现高质量纹理转移。实验表明,该方法在多种条件下优于现有技术,并能有效推广至未见过的纹理和服装形状。
Oct, 2024