TryOnDiffusion:两个UNet的故事
本研究提出了一种从单张照片中生成人体服装真实3D模型的算法,该算法可以还原出服装的全局形态、几何信息和细节,结合参数估计、语义分析和物理模拟等技术,可应用于虚拟试穿、服装转化、数字人物的服装动画等领域。
Aug, 2016
本文提出了一种基于图像的虚拟试衣系统,使用全新的几何匹配模块进行形变和修补,在保留衣物特征的同时,同时处理衣物和图像之间的边界问题和计算拟合度,实现了真实感和模拟性能的完美融合。
Jul, 2018
本文提出了一种新型的可视化试衣神经网络,名为自适应内容生成与保存网络(ACGPN),它首先预测变换后的参考图像的语义布局,然后根据预测的语义布局决定其图像内容是否需要生成或保留,从而实现了更加具有感知质量和丰富细节的逼真试穿图像。
Mar, 2020
本篇论文提出了一种深度学习的虚拟试穿方法,针对传统方法在衣物形态、质感等方面存在的问题进行了改善,并使用量化评估方法对模型的性能进行了验证。
Mar, 2020
图像虚拟试穿是将店内服装与穿着衣物的人物图像相配。本文提出了一个新颖的单阶段框架,通过隐性学习实现衣物变形和人物生成,采用语义上下文融合注意力模块进行衣物-人物特征融合,从而实现高效且逼真的衣物变形和体型合成。通过引入轻量级线性注意力框架,处理以往方法中存在的对齐问题和伪影。为了同时学习变形后的服装和试穿结果,引入了一个变形服装学习模块。我们的方法在VITON数据集上进行评估,在定性和定量指标上展示了其卓越的性能。
Oct, 2023
通过引入新颖的信息感知和局部服装特征注意机制,WarpDiffusion将基于变形和基于扩散的范式相结合,实现了高效和高保真度的虚拟试衣,从而提升了现有VITON方法的综合质量。
Dec, 2023
使用Outfitting over Try-on Diffusion(OOTDiffusion)方法,结合预训练的潜在扩散模型和创新的网络架构,可以有效地生成高质量、逼真且可控的虚拟试穿图像,突破了现有虚拟试穿方法在逼真度和可控性方面的局限。
Mar, 2024
通过引入一种新颖的基于图的变形技术、利用潜在扩散模型进行虚拟试衣和考虑纹理保护以及整体逼真度的遮挡感知变形约束等方法,我们在VITON-HD和Dresscode数据集上验证了我们的方法,在服装变形、纹理保留和整体逼真度方面取得了显著的态度艺术定性和定量结果上的改进。
Jun, 2024
M&M VTO 是一种多样式虚拟试穿方法,以多个服装图像、服装布局的文本描述和人物图像作为输入,并输出展示给定人物上穿指定布局的服装效果的可视化结果。
Jun, 2024
该研究提出了一种新颖的零训练、自由输入方法,通过参考图像实现衣物修复,利用扩展关注机制从参考图像向目标图像传递图像信息,通过用户研究和与现有方法的定量和定性比较,证明了在处理未见过的服装或人物时优于其他方法的图像质量和服装保护能力。
Jun, 2024