基于RGB图像的三维虚拟服装建模
本研究提出了一种从单张照片中生成人体服装真实3D模型的算法,该算法可以还原出服装的全局形态、几何信息和细节,结合参数估计、语义分析和物理模拟等技术,可应用于虚拟试穿、服装转化、数字人物的服装动画等领域。
Aug, 2016
通过将三维布料变形重新构造为二维图案空间中的RGB图像,我们提出了一个新的计算框架,利用常见的CNN学习图像空间中的布料变形,并将其扩展到现实世界中,避免对准确的裸体体形和强大的蒙皮技术的需求,并讨论了如何将一些标准的基于图像的技术(例如图像分割以获得更高的分辨率,GANs以将分割的图像区域合并回来等)容易地并入到我们的框架中。
Dec, 2018
本文提出了一种基于学习的服装动画方法,用于高效的虚拟试穿模拟,其中使用了基于物理的模拟,基于数据库的模型训练,并将全局服装吻合和局部服装皱纹分离。同时,使用循环神经网络来回归服装皱纹,实现了高度逼真的非线性效果。
Mar, 2019
该研究介绍了一种名为MGN的多服装网络模型,利用SMPL模型,通过视频中几帧图像(1-8)预测身体的形状及所穿服装,该模型能够更好的控制身形和服装的关系。为了训练MGN,研究人员利用一个数字化的衣柜,该衣柜中包含了712件数字化服装模板以及真实人物在不同姿势、身着不同服装时的3D扫描数据。该数字化衣柜、MGN模型以及SMPL模型的代码均可公开获取。
Aug, 2019
提出一种将服装图像的纹理自动转移到穿着在人体模型上的3D服装的方法,并在不需要纹理信息的情况下实现,速度比传统方法更快,从而实现了更准确的模型,这为虚拟试穿等应用提供了新的途径。
Mar, 2020
TailorNet是一个用于预测三维服装变形的神经模型,它综合考虑了服装的姿态、形状和风格等因素,同时保留了皱纹细节。该模型采用了分解变形模型的方法,通过低频和高频组合预测服装形变,并且相比之前的模型,TailorNet可以更快地提供更加真实的结果。
Mar, 2020
Deep Fashion3D是迄今为止最大的3D服装模型集合,包含2078个模型和丰富的注释信息,并引入了一种新的单视角服装重建方法。
Mar, 2020
提出了一种基于全卷积图神经网络的学习方法,用于虚拟试穿应用。该方法可以适用于许多服装类型,并使用几何深度学习方法对3D服装进行拟合。通过对目标物体形状和材料进行建模,我们的模型学习了更精细的细节,提高了试穿模型的性能。
Sep, 2020
该论文介绍了一种从图像中实现3D服装的逼真重建的方法,通过一种基于图像纹理的新框架,使用姿势信息从单张图像中生成3D服装的纹理图像,验证了该方法的有效性,并提供了一个大型数据集,对未来的服装纹理重建和合成研究具有重要参考价值。
Oct, 2023
本研究提出了一种名为GarmentDreamer的新型方法,它利用3D高斯喷雾(GS)作为指导,从文本提示中生成适用于仿真的3D服装网格。与使用由生成模型直接预测的多视图图像作为指导相比,我们的3DGS指导确保了服装变形和纹理合成的一致优化。通过全面的定性和定量实验证明了我们方法的有效性,并展示了GarmentDreamer相对于现有最先进方法的卓越性能。
May, 2024