FashionR2R:基于扩散模型的纹理保留渲染到真实图像翻译
本文提出一种名为Text2Human的控制性框架,用于基于文本的生成高质量和多样化的人类图像。在此框架下,我们建立了一个分层的纹理感知码书,以存储不同类型纹理的多尺度神经表征,并使用混合专家的扩散变换采样器采样码书中的索引。通过使用细粒度文本输入,生成的图像具有更高的质量和更多的多样性,拥有比现有方法更好的性能。
May, 2022
基于图像的虚拟试穿系统,旨在设计一种新的流程,可以保留服装的静态特征,如纹理和标志,同时生成适应模型姿势和环境的动态元素,先前的研究在生成动态特征方面存在问题,我们提出了一种新的基于扩散的产品级虚拟试穿流程,即PLTON,它可以保留细节丰富的标志和刺绣,同时产生逼真的服装阴影和皱纹。
Jan, 2024
StableGarment是一个统一框架,用于解决以服装为中心的生成任务,包括文本到图像、可控的文本到图像、风格化的文本到图像和鲁棒的虚拟试衣。通过开发一个具有加性自注意力(ASA)层的服装编码器和专用的试衣ControlNet,以及生成高质量合成数据的新数据引擎,我们的方法在虚拟试衣方面达到了最先进的结果,并在各种以服装为中心的图像生成方面展示了高灵活性和广泛的潜在应用。
Mar, 2024
该论文探讨了多模态条件下的时尚图像编辑任务,提出了一种基于多模态指导的生成方法,利用时尚设计的文本、人体姿势、服装草图和面料纹理等多模态提示生成以人为中心的时尚图像。实验证明了提出方法在现实感和一致性方面的有效性。
Mar, 2024
在虚拟试衣领域,我们提出了一种基于纹理保持扩散(TPD)模型的新方法,通过利用空间维度上人体图片和参考服装图片的连接输入扩散模型的去噪UNet,实现了高效准确的纹理迁移,并预测精确的修补掩膜,将掩膜预测和图像合成整合于单一紧凑模型中,显著优于流行的VITON、VITON-HD数据库上的最先进方法。
Apr, 2024
本研究提出了一种名为GarmentDreamer的新型方法,它利用3D高斯喷雾(GS)作为指导,从文本提示中生成适用于仿真的3D服装网格。与使用由生成模型直接预测的多视图图像作为指导相比,我们的3DGS指导确保了服装变形和纹理合成的一致优化。通过全面的定性和定量实验证明了我们方法的有效性,并展示了GarmentDreamer相对于现有最先进方法的卓越性能。
May, 2024
DiCTI是一种基于扩散的服装设计工具,它利用输入的文本描述自动生成多个高分辨率、逼真的服装设计图片,并通过全面的实验和用户评分展示了其在生成高质量图片和服装设计方面的优势。
Jul, 2024
本研究解决了当前时尚图像编辑技术在准确识别编辑区域和保留服装纹理细节方面的不足。我们提出了一种基于潜在扩散模型的新架构DPDEdit,通过结合文本提示、区域掩码、人体姿势图像和服装纹理图像,能够精确定位编辑区域并转移纹理细节。实验结果表明,DPDEdit在图像保真度和与多模态输入的一致性方面优于现有最先进的方法。
Sep, 2024
本研究解决了应用扩散模型进行图像基础虚拟试穿(VTON)所面临的挑战,尤其是在确保生成图像的真实性与服装细节方面。我们提出了一种新的扩散模型GarDiff,通过增强服装外观和细节的指导,实现了更高保真度的图像合成。实验结果表明,GarDiff在VITON-HD和DressCode数据集上的表现优于其他先进的VTON方法。
Sep, 2024
本研究解决了现有技术在复杂背景下难以准确转移服装纹理的问题。提出的FabricDiffusion方法通过提取无失真、可拼接的纹理材料,并利用去噪扩散模型进行处理,从而在3D服装上实现高质量纹理转移。实验表明,该方法在多种条件下优于现有技术,并能有效推广至未见过的纹理和服装形状。
Oct, 2024