基于图像的虚拟试穿研究
本研究提出了一个基于图像的Virtual Try-On Network,采用“粗到细”的策略将所需的服装项目无缝地转移到相应的人体部位,从而合成真实的照片,不需要3D信息,并通过细化网络训练来改善初始模糊图像。
Nov, 2017
本文提出了一种基于图像的虚拟试衣系统,使用全新的几何匹配模块进行形变和修补,在保留衣物特征的同时,同时处理衣物和图像之间的边界问题和计算拟合度,实现了真实感和模拟性能的完美融合。
Jul, 2018
本文提出一种新的二阶段服装交互转换器 (CIT),通过学习性的薄板样条变换匹配块来捕捉更合理的长程关系,然后提出了一种新型 CIT 推理块来建立全局相互交互依赖关系,并补充了现有的基于图像的虚拟试穿方法,达到了新的技术水平。
Apr, 2021
本文提出了一个在电子商务场景下紧迫需要的基于图形注意力网络(SC-VTON)的形状可控虚拟试衣网络,以更精确地虚拟试衣。 通过将控制点融入SC-VTON中,我们可以使用服装/模型对数据来帮助优化变形模块,并将任务推广到典型的虚拟试衣任务。实验表明,该方法可以实现准确的形状控制,并且生成具有详细纹理的高分辨率结果。
Jul, 2021
本研究提出了一种名为ClothFit的虚拟试衣方法,通过考虑衣服的实际尺寸和人体属性,能够在目标身体上预测衣服的覆盖形状,该方法结合了U-Net网络结构和Auto-encoder技术,相比现有技术实现更加真实、高效的虚拟试衣效果。
Jun, 2023
本研究提出了一种改进的图像虚拟试穿的扩散模型(IDM-VTON),该模型通过使用高级语义和低级特征融合的方法,提高了服装的真实性,并生成了具有真实感的虚拟试穿图像。该研究还介绍了一种使用人物-服装图像对进行个性化定制的方法,并通过实验证明了该方法在保留服装细节和生成真实虚拟试穿图像方面的有效性。
Mar, 2024
本研究讨论了当代电子商务和前景元宇宙中虚拟试穿的关键问题,强调在各种场景中保留目标人物和衣物的复杂纹理细节和独特特征所面临的挑战,并探索了现有方法的局限性和未解决的问题,随后提出了一种基于扩散的新颖解决方案,该解决方案在虚拟试穿过程中解决了服装纹理保留和用户身份保留的问题。该网络显示出令人印象深刻的结果,在推理过程中的速度超过最先进技术近20倍,并在定性评估中具有更高的保真度。在VITON-HD和Dresscode数据集上的定量评估证实了与最近的SOTA方法相当的性能。
Mar, 2024
本文提出了一种自适应掩码训练范式,通过破解试穿区域与原始服装之间的关联,并让模型学习正确的信息进行修补,从而在非配对虚拟试穿情况下提高服装的对齐度和适应性,显著提升虚拟试穿体验的真实感;并首次提出两种用于非配对试穿评估的指标,Semantic-Densepose-Ratio (SDR) 和 Skeleton-LPIPS (S-LPIPS),用于评估服装类型的正确性和纹理的准确性;并构建了一个全面的跨试穿基准测试集(Cross-27),涵盖了多种不同的服装项目和模特身材,用于验证非配对试穿,实验证明了所提方法的有效性,为虚拟试穿技术的发展做出贡献,为该领域的未来研究提供新的洞察和工具。代码、模型和基准测试集将公开发布。
Mar, 2024
M&M VTO 是一种多样式虚拟试穿方法,以多个服装图像、服装布局的文本描述和人物图像作为输入,并输出展示给定人物上穿指定布局的服装效果的可视化结果。
Jun, 2024
本研究提出了一种名为Fashion-VDM的视频扩散模型,旨在生成高质量的虚拟试穿视频,同时保持人物的身份和运动。该方法通过扩散架构和逐步时间训练策略解决了现有视频虚拟试穿方法在服装细节和时间一致性上的不足,实验结果表明其在视频虚拟试穿领域达到了新的领先水平。
Oct, 2024