产品级试穿:保持特征的试穿,还原真实服装色调和皱纹
本文提出了一种基于图像的虚拟试衣系统,使用全新的几何匹配模块进行形变和修补,在保留衣物特征的同时,同时处理衣物和图像之间的边界问题和计算拟合度,实现了真实感和模拟性能的完美融合。
Jul, 2018
本研究提出了一种创新的虚拟试穿技术,能够在输入人体图像上实现个性化服装的逼真合成。我们的方法具有灵活的样式和纹理条件,并通过明确分离样式和纹理的双阶段流程来解决全服装图像作为条件时的交织挑战。通过提取层次化和平衡的 CLIP 特征以及在 VTON 中应用位置编码,我们首次实现了复杂的非平稳纹理,实验结果表明了我们方法在合成质量和个性化方面的卓越表现。样式和纹理的灵活控制为在线购物和时尚设计提供了新的用户体验水平。
Dec, 2023
本研究讨论了当代电子商务和前景元宇宙中虚拟试穿的关键问题,强调在各种场景中保留目标人物和衣物的复杂纹理细节和独特特征所面临的挑战,并探索了现有方法的局限性和未解决的问题,随后提出了一种基于扩散的新颖解决方案,该解决方案在虚拟试穿过程中解决了服装纹理保留和用户身份保留的问题。该网络显示出令人印象深刻的结果,在推理过程中的速度超过最先进技术近 20 倍,并在定性评估中具有更高的保真度。在 VITON-HD 和 Dresscode 数据集上的定量评估证实了与最近的 SOTA 方法相当的性能。
Mar, 2024
本研究提出了一种改进的图像虚拟试穿的扩散模型(IDM-VTON),该模型通过使用高级语义和低级特征融合的方法,提高了服装的真实性,并生成了具有真实感的虚拟试穿图像。该研究还介绍了一种使用人物 - 服装图像对进行个性化定制的方法,并通过实验证明了该方法在保留服装细节和生成真实虚拟试穿图像方面的有效性。
Mar, 2024
本文提出一种全新的个性化虚拟试穿模型(PE-VITON),将图片作为扩散模型的引导条件,通过两个阶段(形状控制和纹理引导)解耦服装属性。定向引导的方式使得该模型可以有效解决传统试穿方法中服装褶皱减弱、复杂人体姿势下生成效果差、衣物边缘模糊和纹理样式不清晰等问题,并根据人体姿势自动增强生成的服装褶皱和纹理,提高虚拟试穿的真实性。实验证明,该模型优于现有的最先进模型。
Dec, 2023
通过引入新颖的信息感知和局部服装特征注意机制,WarpDiffusion 将基于变形和基于扩散的范式相结合,实现了高效和高保真度的虚拟试衣,从而提升了现有 VITON 方法的综合质量。
Dec, 2023
本文提出了一种新型的可视化试衣神经网络,名为自适应内容生成与保存网络(ACGPN),它首先预测变换后的参考图像的语义布局,然后根据预测的语义布局决定其图像内容是否需要生成或保留,从而实现了更加具有感知质量和丰富细节的逼真试穿图像。
Mar, 2020
使用基于生成对抗网络的图像翻译网络和语义分割技术,通过 VTON-IT 图像虚拟试穿应用程序将目标服装覆盖在感兴趣的身体部位,并生成细节丰富的高分辨率自然图像。
Oct, 2023
通过在预训练扩散模型的潜在空间内学习衣物与人体之间的语义对应关系,利用零交叉关注区块保留衣物细节并利用预训练模型的内在知识进行图像变形处理,通过提出的新型注意力全变差损失和应用数据增强,实现了尖锐的注意力图,从而更准确地表示衣物细节。StableVITON 在定性和定量评估中胜过基准方法,在任意人物图像中展示了有希望的质量。
Dec, 2023