基于示例生成对抗网络的眼睛修复
我们提出了一种新颖的基于示例引导的面部修复框架 EXE-GAN,它利用生成对抗网络来维护原始面部图像的质量,并通过同步使用输入图像的全局风格,随机潜在编码产生的随机风格和范例图像的示例风格来完整图像的典型面部属性。为了保证修复区域的自然过渡,我们介绍了一种新颖的空间变量梯度反向传播技术,通过基于空间位置调整损失梯度来实现。在公共 CelebA-HQ 和 FFHQ 数据集上的广泛评估和实际应用验证了 EXE-GAN 在面部修复的视觉质量方面的优越性。
Feb, 2022
本研究提出了两种用于图像外推的方法,即使用上下文编码器和单图像生成模型,并演示了 GAN 在产生合理的外推结果方面的潜在能力。通过将幻想的细节与原始图像的风格相融合,以期进一步提高结果的质量,并可能支持任意输出分辨率。
Dec, 2019
该研究提出了一种基于生成对抗网络的新模型(E2F-Net),通过从眼部至面部的区域提取身份和非身份特征,并将其映射到预训练的 StyleGAN 生成器的潜空间中,实现面部修复和重构。通过大量实验证明,该方法在较少的训练和监督努力的情况下成功重建了具有高质量的整个面部,超过了当前的技术水平。
Mar, 2024
通过深度学习的方式,利用基于 DCGAN 架构的图像分割技术及本地鉴别器提升图像边界的质量,从而实现图片的画外部分(extrapolation),其结果表明利用深度学习方法进行画外部分的研究既可行又具有前景。
Aug, 2018
本文提出了一种基于生成对抗网络(GAN)框架的图像修复方法,该方法利用全局 GAN(G-GAN)架构和 PatchGAN 方法结合进行鉴别器网络的构建,可较好地实现图像贴图的局部连续性和全局特征。经大量评估发现,与最新的现有技术相比,该框架在视觉和数量评估方面均取得了显著的改进。
Mar, 2018
利用样式生成对抗网络(StyleGAN)的潜在空间,将真实图像反转并通过语义丰富的特征表示进行多项编辑,进一步扩展到将被擦除的图像反转到 GAN 的潜在空间中进行逼真修复和编辑的更为困难的任务,通过将反转的潜在编码与随机样本的 StyleGAN 映射特征组合,通过训练编码器和混合网络,利用生成的数据来鼓励混合网络同时利用两个输入,并利用高速特征来防止修复部分与未被擦除部分的颜色不一致,并通过与先进的反转和修复方法进行实验和对比,定量指标和视觉比较显示出显著的改进。
Jul, 2023
本研究提出了一种基于生成式对抗网络的图像拓展方法,通过对多个潜在编码的生成进行条件渲染,实现了对图像的多样化拓展,并可对分类输入进行拓展,其拓展区域结构和内容更加丰富,表现出更高的视觉质量和多样性。
Apr, 2021
本论文介绍了一种基于对抗损失的图像修复半监督学习方法,通过生成器填充图像中的孔洞,再用鉴别器判断图像的真实性,以实现对鉴别器的有监督训练,并在 STL-10 和 PASCAL 数据集上表现出与现有方法相当甚至更好的性能。
Nov, 2016
本研究中我们提出了一种用于表情驱动的视频修复的网络,利用生成对抗网络来处理静态和移动的遮挡物以生成完整的人脸图像,并借助面部标志和无遮挡参考图像来保持用户身份的一致性和情感的细节修复,为静态和动态帧中的面部视频消除遮挡提供了逼真和连贯的结果。
Feb, 2024