WarpDiffusion:高保真虚拟试衣的高效扩散模型
本篇论文提出了一种深度学习的虚拟试穿方法,针对传统方法在衣物形态、质感等方面存在的问题进行了改善,并使用量化评估方法对模型的性能进行了验证。
Mar, 2020
ClothFormer是一种视频虚拟试衣框架,具有三个主要模块,包括两阶段的抗遮挡变形模块,外观流跟踪模块和双流变换器,能够综合在复杂环境中实现逼真,和谐和时空一致的视频虚拟试衣效果。
Apr, 2022
图像虚拟试穿是将店内服装与穿着衣物的人物图像相配。本文提出了一个新颖的单阶段框架,通过隐性学习实现衣物变形和人物生成,采用语义上下文融合注意力模块进行衣物-人物特征融合,从而实现高效且逼真的衣物变形和体型合成。通过引入轻量级线性注意力框架,处理以往方法中存在的对齐问题和伪影。为了同时学习变形后的服装和试穿结果,引入了一个变形服装学习模块。我们的方法在VITON数据集上进行评估,在定性和定量指标上展示了其卓越的性能。
Oct, 2023
基于图像的虚拟试穿系统,旨在设计一种新的流程,可以保留服装的静态特征,如纹理和标志,同时生成适应模型姿势和环境的动态元素,先前的研究在生成动态特征方面存在问题,我们提出了一种新的基于扩散的产品级虚拟试穿流程,即PLTON,它可以保留细节丰富的标志和刺绣,同时产生逼真的服装阴影和皱纹。
Jan, 2024
使用Outfitting over Try-on Diffusion(OOTDiffusion)方法,结合预训练的潜在扩散模型和创新的网络架构,可以有效地生成高质量、逼真且可控的虚拟试穿图像,突破了现有虚拟试穿方法在逼真度和可控性方面的局限。
Mar, 2024
在虚拟试衣领域,我们提出了一种基于纹理保持扩散(TPD)模型的新方法,通过利用空间维度上人体图片和参考服装图片的连接输入扩散模型的去噪UNet,实现了高效准确的纹理迁移,并预测精确的修补掩膜,将掩膜预测和图像合成整合于单一紧凑模型中,显著优于流行的VITON、VITON-HD数据库上的最先进方法。
Apr, 2024
通过引入一种新颖的基于图的变形技术、利用潜在扩散模型进行虚拟试衣和考虑纹理保护以及整体逼真度的遮挡感知变形约束等方法,我们在VITON-HD和Dresscode数据集上验证了我们的方法,在服装变形、纹理保留和整体逼真度方面取得了显著的态度艺术定性和定量结果上的改进。
Jun, 2024
本研究解决了应用扩散模型进行图像基础虚拟试穿(VTON)所面临的挑战,尤其是在确保生成图像的真实性与服装细节方面。我们提出了一种新的扩散模型GarDiff,通过增强服装外观和细节的指导,实现了更高保真度的图像合成。实验结果表明,GarDiff在VITON-HD和DressCode数据集上的表现优于其他先进的VTON方法。
Sep, 2024