IMAGDressing-v1:可定制的虚拟试衣
通过对管道架构、人物表示、关键模块和语义标准的综合分析,本文提供了最新技术和方法论在基于图像的人物试穿领域的全面调研,评估了不同方法,并展示了大规模模型在图像试穿任务上的未来潜力,并揭示了未解决的问题和未来研究方向。
Nov, 2023
使用Outfitting over Try-on Diffusion(OOTDiffusion)方法,结合预训练的潜在扩散模型和创新的网络架构,可以有效地生成高质量、逼真且可控的虚拟试穿图像,突破了现有虚拟试穿方法在逼真度和可控性方面的局限。
Mar, 2024
本研究提出了一种改进的图像虚拟试穿的扩散模型(IDM-VTON),该模型通过使用高级语义和低级特征融合的方法,提高了服装的真实性,并生成了具有真实感的虚拟试穿图像。该研究还介绍了一种使用人物-服装图像对进行个性化定制的方法,并通过实验证明了该方法在保留服装细节和生成真实虚拟试穿图像方面的有效性。
Mar, 2024
本文提出了一种自适应掩码训练范式,通过破解试穿区域与原始服装之间的关联,并让模型学习正确的信息进行修补,从而在非配对虚拟试穿情况下提高服装的对齐度和适应性,显著提升虚拟试穿体验的真实感;并首次提出两种用于非配对试穿评估的指标,Semantic-Densepose-Ratio (SDR) 和 Skeleton-LPIPS (S-LPIPS),用于评估服装类型的正确性和纹理的准确性;并构建了一个全面的跨试穿基准测试集(Cross-27),涵盖了多种不同的服装项目和模特身材,用于验证非配对试穿,实验证明了所提方法的有效性,为虚拟试穿技术的发展做出贡献,为该领域的未来研究提供新的洞察和工具。代码、模型和基准测试集将公开发布。
Mar, 2024
M&M VTO 是一种多样式虚拟试穿方法,以多个服装图像、服装布局的文本描述和人物图像作为输入,并输出展示给定人物上穿指定布局的服装效果的可视化结果。
Jun, 2024
虚拟试衣技术的创新方法,结合自监督视觉变换器和扩散模型,通过对比局部衣物图像嵌入与全局嵌入来实现细节增强,条件引导和关注关键区域等技术的融合进一步提高了虚拟试衣体验的真实感和精确度。
Jun, 2024
该研究提出了一种新颖的零训练、自由输入方法,通过参考图像实现衣物修复,利用扩展关注机制从参考图像向目标图像传递图像信息,通过用户研究和与现有方法的定量和定性比较,证明了在处理未见过的服装或人物时优于其他方法的图像质量和服装保护能力。
Jun, 2024
本文针对虚拟试穿(VTON)任务中的精细语义提取和纹理保留问题,提出了一种深度文本驱动的虚拟试穿模型DH-VTON。该模型采用混合注意力学习策略和深度服装语义保留模块,显著提升了服装细节和人像生成的质量,超越了现有的扩散和GAN方法。
Oct, 2024
本研究针对现有虚拟试衣方法在高保真试衣中存在的不足,提出了一种新的框架“增强虚拟试衣(BVTON)”,利用大规模非配对学习提高试衣的真实感。通过构建伪试衣配对和创新的组件规范流,实验结果显示该方法在高分辨率数据集上优于现有技术,并且在不同穿着风格和数据源中的通用性和可扩展性表现良好。
Nov, 2024