PS风格生成对抗网络:基于注意力的插图肖像速写
该论文提出了一个基于 GAN 框架的新方法,用于从简笔画和风格参考图像中合成带有颜色和纹理的详细艺术风格图像;该方法采用了双重遮罩机制、特征映射转换技术以及反实例标准化过程等模块,以增强风格一致性和内容约束,并取得了显著的合成性能提升。
Feb, 2020
本文提出了一种基于StyleGAN的新方法,将真实肖像图片嵌入潜空间,从而提供了对肖像图像头部姿态、面部表情和场景照明的直观编辑。通过StyleRig,即一个预训练的神经网络,来实现参数空间中的语义编辑。我们设计了一种新的分层非线性优化问题来获得嵌入。添加了一项身份保护能量项,以保持面部完整性和空间连贯性。
Sep, 2020
本文介绍一种名为DualStyleGAN的新型神经网络,可用于基于范例的高分辨率肖像风格迁移,实现原始面部领域和艺术肖像领域的双重风格控制,并通过一种新型的渐进微调机制使其能够精确拼贴风格示例。实验证明其在高质量肖像风格转换和灵活的样式控制方面优于现有方法。
Mar, 2022
基于人类灵感的动态调整方法(HIDA):通过联合考虑面部3D几何和2D外貌,以及全局一致的样式控制,基于变形卷积生成抽象和独特的轮廓,实现面部素描的高质量生成,并在多种风格中显著优于先前方法。
Sep, 2023
该论文提出了一种创新的方法,可以实现面部卡通化,同时保留原始身份并适应各种姿势。与以前依赖条件生成对抗网络 (conditional-GANs) 的方法不同,我们的方法利用了 StyleGAN 的表达潜在空间。我们通过引入一个编码器来从图像中捕捉姿势和身份信息,并生成对应的 StyleGAN 潜在空间中的嵌入。然后,通过一个预训练的生成器将这个嵌入传递,从而得到所需的卡通化输出。与许多其他基于 StyleGAN 的方法需要一个专门调整的、经过精细调整的 StyleGAN 模型不同,我们的方法通过利用已经训练好的 StyleGAN 来产生逼真的面部图像。我们通过广泛的实验表明,当目标是卡通化时,我们的编码器能够适应 StyleGAN 的输出并更好地保留身份信息。
Sep, 2023
通过能量学习和借助CLIP进行跨域语义监督,我们的工作提出了一种使用单个用户素描控制StyleGAN图像的框架,该模型在合成数据集上的定量评估表明,与先前的方法相比,我们的方法在单次测试中性能显著提高,无需额外的训练数据和单个素描输入。
Oct, 2023
通过预训练的 StyleGAN 模型以及基于部分损失的两阶段学习技术,提出了StyleSketch方法,通过16对面部图像和相应的素描图像,训练了一个能够提取高分辨率风格化素描的生成器,并通过比较表明 StyleSketch 在提取高分辨率抽象人脸素描方面优于现有的最先进的素描提取方法和少量样本图像适应方法,同时还探索了其在其他领域的可用性和语义编辑的可能性。
Mar, 2024
本文针对人脸素描合成(FSS)中高质量素描生成的挑战,提出了一种轻量级的端到端合成模型,能够有效地将图像转换为多风格素描,解决了数据稀缺和风格种类受限的问题。研究表明,该方法通过半监督学习与特征提取模块的结合,显著提升了素描的质量和风格变换能力,从而在多个基准测试中优于现有算法。
Aug, 2024