通过形状匹配和多重变形实现准确逼真的虚拟试穿
本文提出了一种基于图像的虚拟试衣系统,使用全新的几何匹配模块进行形变和修补,在保留衣物特征的同时,同时处理衣物和图像之间的边界问题和计算拟合度,实现了真实感和模拟性能的完美融合。
Jul, 2018
本文提出了一种名为SieveNet的框架,用于增强虚拟试衣的质量,使用多级精细变形网络和基于感知几何匹配的损失函数来变换衣服;引入分割掩模先验来提高纹理转移网络;引入多对三元组损失来训练纹理转移网络,从而产生高质量的虚拟试衣结果。
Jan, 2020
本文提出 Outfit Visualization Net (OVNet)方法以及其在多服装虚拟试穿成像方面的应用,该方法利用多项同步变形技术,通过语义布局生成器和逐层细化升级的图像生成管道生成高保真的多衣物虚拟试穿图片,并通过定制配件与人体协同识别的方法,能够将最适宜的配搭与体型匹配的用户展示在电子商务网站上,取得了极高的用户满意度。
Jun, 2021
ClothFormer是一种视频虚拟试衣框架,具有三个主要模块,包括两阶段的抗遮挡变形模块,外观流跟踪模块和双流变换器,能够综合在复杂环境中实现逼真,和谐和时空一致的视频虚拟试衣效果。
Apr, 2022
提出了一种新的虚拟试穿条件生成器,其中包括信息交换的特征融合块,它不会产生任何对齐或像素挤压伪影,同时介绍了鉴别器拒绝过滤器以滤除不正确的语义分割图预测。
Jun, 2022
提出了一种通用的虚拟试穿框架,称为GP-VTON,该框架通过开发创新的LFGP变形模块和DGT训练策略来解决图像中虚拟试穿的各种问题,如人体姿势变换和衣服变形,从而在具有挑战性的输入情况下保留语义信息,并避免出现纹理畸变。经过在两个高分辨率基准上的大量实验,表明该方法明显优于现有的相应方法。
Mar, 2023
提出一种基于渐进式推理范式的新型虚拟试衣方法(PGVTON),通过自上而下的推理管道和一般服装试穿策略实现,包括鲁棒的试穿解析推断方法和通过变形-映射-合成实施的服装试穿。同时使用StyleGAN2实现了针对目标肌肤形状的去光皮肤修复。在两个有挑战性的场景下展示了该方法具有最先进的性能。
Apr, 2023
通过引入新颖的信息感知和局部服装特征注意机制,WarpDiffusion将基于变形和基于扩散的范式相结合,实现了高效和高保真度的虚拟试衣,从而提升了现有VITON方法的综合质量。
Dec, 2023
本文提出了一种自适应掩码训练范式,通过破解试穿区域与原始服装之间的关联,并让模型学习正确的信息进行修补,从而在非配对虚拟试穿情况下提高服装的对齐度和适应性,显著提升虚拟试穿体验的真实感;并首次提出两种用于非配对试穿评估的指标,Semantic-Densepose-Ratio (SDR) 和 Skeleton-LPIPS (S-LPIPS),用于评估服装类型的正确性和纹理的准确性;并构建了一个全面的跨试穿基准测试集(Cross-27),涵盖了多种不同的服装项目和模特身材,用于验证非配对试穿,实验证明了所提方法的有效性,为虚拟试穿技术的发展做出贡献,为该领域的未来研究提供新的洞察和工具。代码、模型和基准测试集将公开发布。
Mar, 2024
本研究针对现有虚拟试衣方法在高保真试衣中存在的不足,提出了一种新的框架“增强虚拟试衣(BVTON)”,利用大规模非配对学习提高试衣的真实感。通过构建伪试衣配对和创新的组件规范流,实验结果显示该方法在高分辨率数据集上优于现有技术,并且在不同穿着风格和数据源中的通用性和可扩展性表现良好。
Nov, 2024