- AnyFit: 任意场景下服装任意组合的可控虚拟试穿
通过提出一种轻量级、可扩展的运算符 Hydra Block 来实现服装组合,进而显著增强模型在真实场景中的稳健性和表达能力,并通过在各种情况下合成多模型的残差以及实施掩膜区域增强策略来克服现有模型中信息泄露带来的不稳定性,使得 AnyFit - MV-VTON: 多视角扩散模型虚拟试穿
通过使用多视图衣物和扩散模型,引入了一种多视图虚拟试衣方法(MV-VTON),该方法在多视图中从给定的衣物中重建人物着装结果。
- CVPR高保真虚拟试穿的纹理保持扩散模型
在虚拟试衣领域,我们提出了一种基于纹理保持扩散(TPD)模型的新方法,通过利用空间维度上人体图片和参考服装图片的连接输入扩散模型的去噪 UNet,实现了高效准确的纹理迁移,并预测精确的修补掩膜,将掩膜预测和图像合成整合于单一紧凑模型中,显著 - 优化虚拟试穿的扩散模型
本研究提出了一种改进的图像虚拟试穿的扩散模型(IDM-VTON),该模型通过使用高级语义和低级特征融合的方法,提高了服装的真实性,并生成了具有真实感的虚拟试穿图像。该研究还介绍了一种使用人物 - 服装图像对进行个性化定制的方法,并通过实验证 - OOTDiffusion:基于融合的潜在扩散技术的控制性虚拟试穿
使用 Outfitting over Try-on Diffusion(OOTDiffusion)方法,结合预训练的潜在扩散模型和创新的网络架构,可以有效地生成高质量、逼真且可控的虚拟试穿图像,突破了现有虚拟试穿方法在逼真度和可控性方面的局 - WarpDiffusion:高保真虚拟试衣的高效扩散模型
通过引入新颖的信息感知和局部服装特征注意机制,WarpDiffusion 将基于变形和基于扩散的范式相结合,实现了高效和高保真度的虚拟试衣,从而提升了现有 VITON 方法的综合质量。
- StableVITON:使用潜在扩散模型学习虚拟试穿的语义对应关系
通过在预训练扩散模型的潜在空间内学习衣物与人体之间的语义对应关系,利用零交叉关注区块保留衣物细节并利用预训练模型的内在知识进行图像变形处理,通过提出的新型注意力全变差损失和应用数据增强,实现了尖锐的注意力图,从而更准确地表示衣物细节。Sta - CAT-DM:具有扩散模型的可控加速虚拟试衣
提出了一种基于扩散模型的可控加速虚拟试衣网络(CAT-DM),该网络通过使用 ControNet 引入额外的控制条件和改进服装图像的特征提取,对传统的扩散模型进行了改进,并且能够在不降低生成质量的情况下减少采样步骤。与基于 GAN 和基于扩 - 基于图像的虚拟试穿研究
通过对管道架构、人物表示、关键模块和语义标准的综合分析,本文提供了最新技术和方法论在基于图像的人物试穿领域的全面调研,评估了不同方法,并展示了大规模模型在图像试穿任务上的未来潜力,并揭示了未解决的问题和未来研究方向。
- 虚拟试穿的单阶段变形布料学习和语义 - 上下文关注特征融合
图像虚拟试穿是将店内服装与穿着衣物的人物图像相配。本文提出了一个新颖的单阶段框架,通过隐性学习实现衣物变形和人物生成,采用语义上下文融合注意力模块进行衣物 - 人物特征融合,从而实现高效且逼真的衣物变形和体型合成。通过引入轻量级线性注意力框 - ECCV处理失配和遮挡条件的高分辨率虚拟试穿
提出了一种新的虚拟试穿条件生成器,其中包括信息交换的特征融合块,它不会产生任何对齐或像素挤压伪影,同时介绍了鉴别器拒绝过滤器以滤除不正确的语义分割图预测。
- ECCV高分辨率多类别虚拟试衣间
本文旨在解决针对全身或下半身衣物的图像虚拟试穿的局限性,介绍了 Dress Code 数据集,提出了一种基于语义感知判别器的像素级预测方法,为生成高细节和视觉质量的高清试穿图像提供了新的思路,并在视觉质量和定量评估方面超过了基线和最先进的竞 - CVPR基于风格的全局外观流应用于虚拟试衣
本文提出了一种新的全局外观流估计模型,并引入流精炼模块,以处理针对带有 “流浪” 挑战的全身参考图像的虚拟试穿。
- 通过 Patch-Routed 空间自适应 GAN 实现可扩展的非配对虚拟试穿
提出了一种无监督的图像虚拟试穿系统 PASTA-GAN,通过创新的贴片路由 module 成功保留服装的纹理和形状特征,引入新的空间自适应残差块来指导生成器合成更真实的服装细节。
- ICCVZFlow:基于门控外观流和三维先验的虚拟试穿
本文提出了一种名为 ZFlow 的端到端框架,采用分层流估计的门控聚合和密集结构先验结合解决虚拟试衣中关于几何和纹理完整性的问题,并在多个数据集上进行了对比实验和用户研究以评估其对图像质量的影响。
- CVPRVITON-HD: 基于错位感知归一化的高分辨率虚拟试穿
该研究提出了一种名为 VITON-HD 的虚拟试衣方法,通过使用 ALIAS 标准化和生成器处理未对齐的区域以及保留 1024x768 输入的细节,成功地合成了 1024x768 虚拟试衣图片,其合成图像的质量显著优于基线,提高了试衣体验。
- SieveNet: 基于图像的虚拟试穿的统一框架
本文提出了一种名为 SieveNet 的框架,用于增强虚拟试衣的质量,使用多级精细变形网络和基于感知几何匹配的损失函数来变换衣服;引入分割掩模先验来提高纹理转移网络;引入多对三元组损失来训练纹理转移网络,从而产生高质量的虚拟试衣结果。