TeCH: 文本引导下的逼真着装人体重建
本研究提出了一种从单张照片中生成人体服装真实3D模型的算法,该算法可以还原出服装的全局形态、几何信息和细节,结合参数估计、语义分析和物理模拟等技术,可应用于虚拟试穿、服装转化、数字人物的服装动画等领域。
Aug, 2016
Deep Fashion3D是迄今为止最大的3D服装模型集合,包含2078个模型和丰富的注释信息,并引入了一种新的单视角服装重建方法。
Mar, 2020
通过使用神经网络的表征来捕捉局部相干几何信息和非平面细节,并回归本地几何,我们提出了一种新的表面能量,通过在服装上基于人体模型的变形将人体和衣服的形变分离开来,在二维参数空间上学习一种姿态嵌入,对未知的姿态进行模型建立,以及通过动作瞬间学习人的姿态,实现了点云三维建模和渲染。
Apr, 2021
通过将高容量的二维扩散模型与形状引导扩散相结合并利用逆渲染技术,从单一图像中逐步合成多个视角的完全纹理化高分辨率三维网格,实现了广泛的服装人物360度合成的照片级别结果。
Nov, 2023
基于新颖的物理解耦-语义感知扩散模型,本文提出了一个文本驱动的分层式3D人体生成框架,可以生成具有一致身体结构的3D人体,同时允许分层式的自由编辑。
Dec, 2023
我们提出了一种名为FashionEngine的互动式3D人体生成和编辑系统,可以与人类与世界互动的方式一致地设计3D数字人体,并包括预训练的3D人体扩散模型、多模态-UV编码和多模态-UV对齐采样器等关键组件。
Apr, 2024
本研究解决了在单目视频中重建穿着松散衣物的人的时间一致的体模问题,填补了以往研究中对紧身衣物和物体交互的局限。通过结合从大量数据中学习的通用人体形状先验与视频特定的“骨骼袋”变形,该方法实现了高质量而灵活的重建。研究结果表明,DressRecon在处理复杂衣物变形和物体交互时,能够产生比之前方法更高保真的3D重建效果。
Sep, 2024
本研究解决了当前服装重建技术在处理复杂布料变形和身体姿态时的泛化能力不足的问题。我们提出GarVerseLOD,一个新颖的数据集和框架,通过收集6000个高质量的服装模型,采用细化的几何层次提升了重建的精度和鲁棒性。实验结果表明,GarVerseLOD在真实图像中的服装重建质量显著优于前沿方法,具有重要的应用潜力。
Nov, 2024