- 语义保留的基于点的人类角色模拟
为了实现真实的 AR/VR 和数字娱乐体验,我们提出了第一个点云人物模型,它涵盖了数字人物的全部表达范围。我们使用两个多层感知器来建模姿势相关的变形和线性蒙皮权重。外观的表示依赖于解码器和附加到每个点的特征。与替代的隐式方法相比,朝向点的表 - 通过关键点幻象进行虚拟饰品试穿
本文聚焦于虚拟配饰试穿,通过背景导向网络利用人体先验知识和配饰先验将前景信息嵌入背景 UNet,进一步提高性能,并在 STRAT 数据集上验证了我们方法的有效性。
- VTON-IT: 图像翻译的虚拟试衣
使用基于生成对抗网络的图像翻译网络和语义分割技术,通过 VTON-IT 图像虚拟试穿应用程序将目标服装覆盖在感兴趣的身体部位,并生成细节丰富的高分辨率自然图像。
- 基于文本指导的合成型 3D 人物生成与编辑
通过使用 3D 面部化身、文本引导生成、组合式化身、NeRF 和虚拟试穿,我们提出了一个新方法(TECA)来创建逼真的 3D 面部化身,同时实现可编辑性和特征转移。
- MM利用外观流驯服扩散模型的高质量虚拟试穿
基于扩散模型的条件修复技术在虚拟试衣中的有效使用,结合了扭曲模块的力量来产生高质量和逼真的虚拟试穿结果。
- LaDI-VTON: 潜在扩散文本反演增强虚拟试穿
LaDI-VTON 是应用于 Virtual Try-On 任务的第一款基于 Latent Diffusion textual Inversion 的模型,实验结果表明,该模型在保持纹理和细节方面比竞争对手表现更佳,并以显著的优势取得了里程 - CVPR使用 LLMs 和潜在扩散模型进行互动式时尚内容生成
该研究提出了使用基于能量的模型(EBMs)的扩散模型的等价性,建议组成多个概率分布的方法,并提出了一个通过 LLM 引导文本生成图像生成新时尚装配和虚拟试穿的流程,其结果表明使用 LLM 生成具有全球创意和文化多样性的时尚风格并减少偏见。
- FashionTex: 可控的基于文本和纹理的虚拟试穿
通过将文本和纹理相结合,FashionTex 框架能够在无需配对数据的情况下,对服装类型和纹理模式进行语义控制,从而支持全身肖像的用户友好型时尚定制。
- DreamPaint: 基于小样本的电子商务物品修复算法,用于虚拟试穿,无需 3D 建模
DreamPaint 是一种无需 3D 建模,可以智能地将电子商务产品插入到用户提供的上下文图像中进行虚拟试穿的方法,使用了预训练的扩散模型和补全模块,并且在主观和量化指标方面都表现出优越的性能。
- 带空间约束的文本引导眼镜操纵
本文提出了一种基于文本和二进制 mask 的眼镜虚拟试穿方法,通过 mask encoder 实现对 mask 条件的提取,同时使用 modulation module 来同时注入文本和 mask 条件,进而控制眼镜的外观。通过 disen - PG-VTON: 一种基于图片的虚拟试衣新方法,通过渐进推理范例实现
提出一种基于渐进式推理范式的新型虚拟试衣方法(PGVTON),通过自上而下的推理管道和一般服装试穿策略实现,包括鲁棒的试穿解析推断方法和通过变形 - 映射 - 合成实施的服装试穿。同时使用 StyleGAN2 实现了针对目标肌肤形状的去光皮 - ALiSNet:时尚电商精准轻量人像分割网络
本文描述了使用智能手机拍摄人体照片并使用于保护用户隐私的图片处理技术,使用基于语义的 FPN 模型辅以 PointRend 技术,在特定姿势的高质量数据集上进行微调,从而创建了一个体积为 4MB,精度为 97.6±1.0% 的新模型 ALi - CVPRStyleGAN 沙龙:多视角潜空间优化实现姿态不变发型转移
本论文提出了一种基于多视图优化的方法,结合 StyleGAN 技术进行头发的虚拟试穿,能够准确地转移发型并保留输入图片的面部特征和身份信息。
- CVPRGP-VTON:通过协作的局部流全局解析学习实现通用虚拟试穿
提出了一种通用的虚拟试穿框架,称为 GP-VTON,该框架通过开发创新的 LFGP 变形模块和 DGT 训练策略来解决图像中虚拟试穿的各种问题,如人体姿势变换和衣服变形,从而在具有挑战性的输入情况下保留语义信息,并避免出现纹理畸变。经过在两 - FICE: 带引导 GAN 反演的文本调制时尚图像编辑
本论文提出了一种新的文本引导时尚图片编辑方法 FICE,包括 GAN 反演、CLIP 模型语义信息和姿态、图片评估等多项约束,使其能够更好地控制图像合成的逼真程度,并与多种先进方法进行对比验证,结果表明 FICE 具有更强的编辑表现和高度逼 - ECCV基于交叉关注的风格分布控制人物图像合成
本文提出了一种基于交叉注意力深度学习模型的姿势传输方法,能提高人物图像合成的独立控制能力和精确性。该模型通过自我关注来编码源外观,通过交叉注意力来计算源语义风格和目标姿势之间的相关性用于实现颜色和纹理转移,同时被目标分割映射所约束以实现更清 - ECCV可变形注意力流在单阶段虚拟试衣中的应用
通过 Deformable Attention Flow 实现 virtual try-on 的 end-to-end 模型,同时处理衣服变形和身体融合问题,最终达到以高度真实感展示 virtual try-on 的结果。
- IJCAIRMGN: 基于区域掩码的网络,用于无需解析的虚拟试衣
提出了一种新的基于区域遮罩引导网络的虚拟试穿方法,该方法通过引入区域遮罩,显式地融合目标服饰和参考人物的特征以消除详细合成中存在的干扰,并通过姿势感知损失和多级特征提取器进一步处理复杂的姿势和高分辨率图像合成。大量实验表明,所提出的方法优于 - CVPR通過觀看舞蹈視頻學習野外裝扮
本研究基于新构建的大规模视频数据集 Dance50k,提出了 wFlow 网络,通过像素传输和顶点传输进行虚拟试穿,优化了松散服装和具有挑战性姿势的效果。实验证明,该方法在不依赖昂贵的成对数据集的情况下,能够在野外图像中生成逼真的服装转换结 - NeuralTailor:从服装的 3D 点云中重建缝纫图案结构
该研究论文介绍了使用服装缝合图案和面向点的注意力模型 NeuralTailor,来解决在 SocialVR、表演捕捉和虚拟试衣等领域中,虚拟世界中真实服装重建的挑战。