Cloth2Tex: 自定义三维虚拟试穿的布料纹理生成流程
提出一种将服装图像的纹理自动转移到穿着在人体模型上的3D服装的方法,并在不需要纹理信息的情况下实现,速度比传统方法更快,从而实现了更准确的模型,这为虚拟试穿等应用提供了新的途径。
Mar, 2020
通过将文本和纹理相结合,FashionTex框架能够在无需配对数据的情况下,对服装类型和纹理模式进行语义控制,从而支持全身肖像的用户友好型时尚定制。
May, 2023
该论文介绍了一种从图像中实现3D服装的逼真重建的方法,通过一种基于图像纹理的新框架,使用姿势信息从单张图像中生成3D服装的纹理图像,验证了该方法的有效性,并提供了一个大型数据集,对未来的服装纹理重建和合成研究具有重要参考价值。
Oct, 2023
基于图像的虚拟试穿系统,旨在设计一种新的流程,可以保留服装的静态特征,如纹理和标志,同时生成适应模型姿势和环境的动态元素,先前的研究在生成动态特征方面存在问题,我们提出了一种新的基于扩散的产品级虚拟试穿流程,即PLTON,它可以保留细节丰富的标志和刺绣,同时产生逼真的服装阴影和皱纹。
Jan, 2024
通过引入基于GPT的体系结构SewingGPT,结合文本条件嵌入和跨注意力,我们的框架可通过自然语言交互生成与计算机生成图形友好的服装。通过与其他最先进方法的综合评估和比较,我们的方法展示了最好的质量和输入提示的一致性。用户研究进一步验证了我们高质量的渲染结果,突显了它在实际生产环境中的实用性和潜力。
Jan, 2024
采用“WordRobe”框架,通过学习3D服装的潜在表示和对齐CLIP嵌入空间,实现了高质量纹理的基于文本的3D服装生成和编辑。通过控制网络实现全景一致纹理合成,生成时间大大缩短。WordRobe生成的3D服装网格可以直接用于标准布料模拟和动画流程。
Mar, 2024
我们介绍了Garment3DGen,一种从基础网格中合成3D服装资产的新方法,通过单个输入图像作为指导,用户可以根据真实和合成图像生成3D纹理服装。使用Garment3DGen,用户可以生成所需的纹理3D服装而无需艺术家干预。
Mar, 2024
本研究针对数字化人物研究领域的衣物建模、动画和重建方面的最新发展进行了探讨,提出基于真实世界数据集训练的高保真度3D生成模型Design2Cloth,为时尚行业做出了重要贡献,并展示了该方法在从2D布料遮罩生成多样化、详细化服装以及从野外图像和3D扫描中实现高质量重建方面的优势。
Apr, 2024
本研究提出了一种名为GarmentDreamer的新型方法,它利用3D高斯喷雾(GS)作为指导,从文本提示中生成适用于仿真的3D服装网格。与使用由生成模型直接预测的多视图图像作为指导相比,我们的3DGS指导确保了服装变形和纹理合成的一致优化。通过全面的定性和定量实验证明了我们方法的有效性,并展示了GarmentDreamer相对于现有最先进方法的卓越性能。
May, 2024
本研究解决了现有技术在复杂背景下难以准确转移服装纹理的问题。提出的FabricDiffusion方法通过提取无失真、可拼接的纹理材料,并利用去噪扩散模型进行处理,从而在3D服装上实现高质量纹理转移。实验表明,该方法在多种条件下优于现有技术,并能有效推广至未见过的纹理和服装形状。
Oct, 2024