本文提出了一个在电子商务场景下紧迫需要的基于图形注意力网络 (SC-VTON) 的形状可控虚拟试衣网络,以更精确地虚拟试衣。 通过将控制点融入 SC-VTON 中,我们可以使用服装 / 模型对数据来帮助优化变形模块,并将任务推广到典型的虚拟试衣任务。实验表明,该方法可以实现准确的形状控制,并且生成具有详细纹理的高分辨率结果。
Jul, 2021
本研究提出了一种创新的虚拟试穿技术,能够在输入人体图像上实现个性化服装的逼真合成。我们的方法具有灵活的样式和纹理条件,并通过明确分离样式和纹理的双阶段流程来解决全服装图像作为条件时的交织挑战。通过提取层次化和平衡的 CLIP 特征以及在 VTON 中应用位置编码,我们首次实现了复杂的非平稳纹理,实验结果表明了我们方法在合成质量和个性化方面的卓越表现。样式和纹理的灵活控制为在线购物和时尚设计提供了新的用户体验水平。
Dec, 2023
本研究讨论了当代电子商务和前景元宇宙中虚拟试穿的关键问题,强调在各种场景中保留目标人物和衣物的复杂纹理细节和独特特征所面临的挑战,并探索了现有方法的局限性和未解决的问题,随后提出了一种基于扩散的新颖解决方案,该解决方案在虚拟试穿过程中解决了服装纹理保留和用户身份保留的问题。该网络显示出令人印象深刻的结果,在推理过程中的速度超过最先进技术近 20 倍,并在定性评估中具有更高的保真度。在 VITON-HD 和 Dresscode 数据集上的定量评估证实了与最近的 SOTA 方法相当的性能。
Mar, 2024
提出了一种新的虚拟试穿条件生成器,其中包括信息交换的特征融合块,它不会产生任何对齐或像素挤压伪影,同时介绍了鉴别器拒绝过滤器以滤除不正确的语义分割图预测。
Jun, 2022
基于扩散模型的条件修复技术在虚拟试衣中的有效使用,结合了扭曲模块的力量来产生高质量和逼真的虚拟试穿结果。
Aug, 2023
本文提出一种全新的个性化虚拟试穿模型(PE-VITON),将图片作为扩散模型的引导条件,通过两个阶段(形状控制和纹理引导)解耦服装属性。定向引导的方式使得该模型可以有效解决传统试穿方法中服装褶皱减弱、复杂人体姿势下生成效果差、衣物边缘模糊和纹理样式不清晰等问题,并根据人体姿势自动增强生成的服装褶皱和纹理,提高虚拟试穿的真实性。实验证明,该模型优于现有的最先进模型。
在虚拟试衣领域,我们提出了一种基于纹理保持扩散(TPD)模型的新方法,通过利用空间维度上人体图片和参考服装图片的连接输入扩散模型的去噪 UNet,实现了高效准确的纹理迁移,并预测精确的修补掩膜,将掩膜预测和图像合成整合于单一紧凑模型中,显著优于流行的 VITON、VITON-HD 数据库上的最先进方法。
Apr, 2024
本文提出了一种基于图像的虚拟试衣系统,使用全新的几何匹配模块进行形变和修补,在保留衣物特征的同时,同时处理衣物和图像之间的边界问题和计算拟合度,实现了真实感和模拟性能的完美融合。
Jul, 2018
虚拟试穿系统中的薄板样条、ATAG 变换和基于部分翘曲的方法的研究与应用分析。
Jan, 2024
通过使用多视图衣物和扩散模型,引入了一种多视图虚拟试衣方法(MV-VTON),该方法在多视图中从给定的衣物中重建人物着装结果。