ViViD: 使用扩散模型的视频虚拟试衣
本研究提出了一种改进的图像虚拟试穿的扩散模型(IDM-VTON),该模型通过使用高级语义和低级特征融合的方法,提高了服装的真实性,并生成了具有真实感的虚拟试穿图像。该研究还介绍了一种使用人物 - 服装图像对进行个性化定制的方法,并通过实验证明了该方法在保留服装细节和生成真实虚拟试穿图像方面的有效性。
Mar, 2024
本研究讨论了当代电子商务和前景元宇宙中虚拟试穿的关键问题,强调在各种场景中保留目标人物和衣物的复杂纹理细节和独特特征所面临的挑战,并探索了现有方法的局限性和未解决的问题,随后提出了一种基于扩散的新颖解决方案,该解决方案在虚拟试穿过程中解决了服装纹理保留和用户身份保留的问题。该网络显示出令人印象深刻的结果,在推理过程中的速度超过最先进技术近 20 倍,并在定性评估中具有更高的保真度。在 VITON-HD 和 Dresscode 数据集上的定量评估证实了与最近的 SOTA 方法相当的性能。
Mar, 2024
通过在预训练扩散模型的潜在空间内学习衣物与人体之间的语义对应关系,利用零交叉关注区块保留衣物细节并利用预训练模型的内在知识进行图像变形处理,通过提出的新型注意力全变差损失和应用数据增强,实现了尖锐的注意力图,从而更准确地表示衣物细节。StableVITON 在定性和定量评估中胜过基准方法,在任意人物图像中展示了有希望的质量。
Dec, 2023
虚拟试衣技术的创新方法,结合自监督视觉变换器和扩散模型,通过对比局部衣物图像嵌入与全局嵌入来实现细节增强,条件引导和关注关键区域等技术的融合进一步提高了虚拟试衣体验的真实感和精确度。
Jun, 2024
ClothFormer 是一种视频虚拟试衣框架,具有三个主要模块,包括两阶段的抗遮挡变形模块,外观流跟踪模块和双流变换器,能够综合在复杂环境中实现逼真,和谐和时空一致的视频虚拟试衣效果。
Apr, 2022
在虚拟试衣领域,我们提出了一种基于纹理保持扩散(TPD)模型的新方法,通过利用空间维度上人体图片和参考服装图片的连接输入扩散模型的去噪 UNet,实现了高效准确的纹理迁移,并预测精确的修补掩膜,将掩膜预测和图像合成整合于单一紧凑模型中,显著优于流行的 VITON、VITON-HD 数据库上的最先进方法。
Apr, 2024
通过引入新颖的信息感知和局部服装特征注意机制,WarpDiffusion 将基于变形和基于扩散的范式相结合,实现了高效和高保真度的虚拟试衣,从而提升了现有 VITON 方法的综合质量。
Dec, 2023
通过提出一种名为 “Tunnel Try-on” 的基于扩散的框架,我们解决了视频试穿中保留服装细节和建模连贯运动的难题,并通过在输入视频中挖掘 “焦点隧道” 来生成稳定流畅的试衣视频,是向商业级视频虚拟试穿应用迈出的重要一步。
Apr, 2024