HairCLIPv2:通过代理特征融合统一发型编辑
采用神经网络处理的图像合成方法,通过人工繁琐的建模,渲染和复合形成目标发型的三维几何形状来合成真实的面部毛发变化,使用户能够通过简单的引导笔画来进一步指导和修整所生成的图像。此方法不仅可以控制结构和颜色特征,而且发夹名单可以灵活地扩展和生成高保真头皮发。
Apr, 2020
本文提出了一种利用文字或参考图像来对毛发属性进行单独或联合操作的新型毛发编辑交互模式,通过在共享嵌入空间中编码图像和文本条件并利用Contrastive Language-Image Pre-Training(CLIP)模型的强大图像文本表示能力提出了一种统一的、高质量的毛发编辑框架。
Dec, 2021
该论文提出了一种新的姿态不变的发型转换模型HairFIT,该模型包括基于流的发型对齐和基于语义区域感知补全蒙版的发型综合两个阶段,能够有效地在具有不同姿势的图像之间实现发型转换,并取得了最先进的性能。
Jun, 2022
本文提出了一种高性能的、具有潜在优化和新颖的局部样式匹配损失的姿势无关发型转移模型,可以在保留局部发型纹理的同时,克服源图像姿态与目标头发图像姿态差异较大产生的不满足问题。实验结果表明,该模型在较大姿势差异下转移发型并保持局部发型纹理的能力较强。
Aug, 2022
通过使用3D面部化身、文本引导生成、组合式化身、NeRF和虚拟试穿,我们提出了一个新方法(TECA)来创建逼真的3D面部化身,同时实现可编辑性和特征转移。
Sep, 2023
本文介绍一种创建高度逼真、个性化发型的头像的新方法,通过利用不同发型间的局部相似性并从多视角捕捉数百人的数据生成通用的发型外观先验模型,该先验模型以3D对齐特征为输入,在稀疏点云颜色条件下生成密集辐射场,通过实验证明该模型能够捕捉各种多样的发型并且应用在生成逼真、个性化的具有完整发型的头像上,取得了优于现有方法的效果。
Dec, 2023
我们提出了HAAR,一种基于链式的3D人类发型生成模型,通过文本输入生成可用于现代计算机图形引擎中的3D发型,并通过定性和定量研究,演示了该模型的能力并与现有发型生成方法进行了比较。
Dec, 2023
Hairstyle reflects culture and ethnicity, and this paper presents GaussianHair, a novel hair representation technique that enables comprehensive modeling, realistic appearance, efficient rasterization, and breakthroughs in geometric and appearance fidelity, addressing the limitations in hair reconstruction methods.
Feb, 2024
本研究提出了一个名为HairFast的模型,通过在StyleGAN的FS潜空间中运作的新架构、增强修补方法和改进的编码器来解决从参考图像将发型转移的问题,实现了高分辨率、接近实时的性能和优越的重建效果。
Apr, 2024
本研究针对现有发型迁移方法在面对极端头部姿态和焦距变化时难以适应的问题,提出了一种新型的发型迁移扩散模型HairFusion。该模型通过设计去发形的表示、引入头发对齐交叉注意机制以及自适应头发混合,大幅提高了发型与面部图像之间的对齐及特征保留效果,实验结果表明其在发型迁移效果及周围特征保留上优于现有方法。
Aug, 2024