多姿态引导的虚拟试衣网络
本研究提出了一个基于图像的Virtual Try-On Network,采用“粗到细”的策略将所需的服装项目无缝地转移到相应的人体部位,从而合成真实的照片,不需要3D信息,并通过细化网络训练来改善初始模糊图像。
Nov, 2017
本文提出了一种基于图像的虚拟试衣系统,使用全新的几何匹配模块进行形变和修补,在保留衣物特征的同时,同时处理衣物和图像之间的边界问题和计算拟合度,实现了真实感和模拟性能的完美融合。
Jul, 2018
我们提出了一种新的虚拟试穿网络M2E-Try On Net,它可以将衣服从模特图像转移到人物图像,而不需要任何干净的产品图像。我们的网络包括姿势对齐网络(PAN)、纹理细化网络(TRN)和适配网络(FTN),可以生成逼真的试穿模型衣服的人物图像。
Nov, 2018
本文提出了一种新型的可视化试衣神经网络,名为自适应内容生成与保存网络(ACGPN),它首先预测变换后的参考图像的语义布局,然后根据预测的语义布局决定其图像内容是否需要生成或保留,从而实现了更加具有感知质量和丰富细节的逼真试穿图像。
Mar, 2020
该研究提出一种新颖的基于2D和3D方法的单目-3D虚拟试穿网络,通过有效地整合2D信息和学习将2D表示提升到3D的映射以构建一个3D试穿模型。所提出的模型包含三个模块:单目预测模块、深度细化模块和纹理融合模块。该模型在构建高质量的试衣数据集的基础上,通过大量实验,证明了其比其他3D方法更高效和能够更真实地描述试穿效果。
Aug, 2021
提出了一种基于记忆的视频虚拟试衣网络(MV-TON),它可以在不需要任何服装模板的情况下,通过姿势对齐和区域替换像素,将所需的衣服无缝传输到目标人身上,并生成高分辨率逼真的视频
Aug, 2021
提出了一种无监督的图像虚拟试穿系统 PASTA-GAN,通过创新的贴片路由 module 成功保留服装的纹理和形状特征,引入新的空间自适应残差块来指导生成器合成更真实的服装细节。
Nov, 2021
提出了一种通用的虚拟试穿框架,称为GP-VTON,该框架通过开发创新的LFGP变形模块和DGT训练策略来解决图像中虚拟试穿的各种问题,如人体姿势变换和衣服变形,从而在具有挑战性的输入情况下保留语义信息,并避免出现纹理畸变。经过在两个高分辨率基准上的大量实验,表明该方法明显优于现有的相应方法。
Mar, 2023
使用基于生成对抗网络的图像翻译网络和语义分割技术,通过 VTON-IT 图像虚拟试穿应用程序将目标服装覆盖在感兴趣的身体部位,并生成细节丰富的高分辨率自然图像。
Oct, 2023