兼容和多样化的时尚图像修补
通过整合先进的生成人工智能(GenAI)和计算机视觉技术,本研究探索了一种综合方法,重点是图像操作。研究的有效性在实验中得到验证,强调了其在生成引人注目内容方面的潜力,使用户能够根据特定提示对个人照片进行服装和背景的修改,无需手动输入修复遮罩,从而有效地将主题植入创意想象的广阔景观中。
Feb, 2024
本文提出了一套联合预测滤波和生成网络的混合框架 JpgNet,通过结合预测滤波网络和生成网络,同时保留局部结构和整体理解,并提出了一种不确定性感知融合网络,可用于图像修复领域。在 Dunhuang、Places2 和 CelebA 等数据集上的实验表明,这项技术可以显著改善三种最先进的生成模型,同时时间成本略有增加。
Jul, 2021
本文提出了一种新的用于图像修复的 GAN 反演模型 InvertFill,它包括一个带有预调制模块的编码器和一个包含 F&W + 潜在空间的 GAN 生成器。通过使用 F&W + 潜在空间和 Soft-update Mean Latent 模块,该模型能够更好地实现图像修复。该模型在四个具有挑战性的数据集上的综合实验结果表明,在视觉和定量上优于现有的高级方法,并且很好地支持跨域图像的修复。
Aug, 2022
该研究提出使用扩张版本的局部卷积来提升服装图像修复的效果,并在著名的时尚数据集上进行了广泛的基准测试,实验证明该方法可以降低掩模更新所需的层数,尤其在掩模尺寸为图像的 20%或更多时可以实现更好的定量修复性能。
Jul, 2020
本研究提出了一种基于生成式对抗网络的图像拓展方法,通过对多个潜在编码的生成进行条件渲染,实现了对图像的多样化拓展,并可对分类输入进行拓展,其拓展区域结构和内容更加丰富,表现出更高的视觉质量和多样性。
Apr, 2021
利用样式生成对抗网络(StyleGAN)的潜在空间,将真实图像反转并通过语义丰富的特征表示进行多项编辑,进一步扩展到将被擦除的图像反转到 GAN 的潜在空间中进行逼真修复和编辑的更为困难的任务,通过将反转的潜在编码与随机样本的 StyleGAN 映射特征组合,通过训练编码器和混合网络,利用生成的数据来鼓励混合网络同时利用两个输入,并利用高速特征来防止修复部分与未被擦除部分的颜色不一致,并通过与先进的反转和修复方法进行实验和对比,定量指标和视觉比较显示出显著的改进。
Jul, 2023
该研究提出了一种基于生成对抗网络的新模型(E2F-Net),通过从眼部至面部的区域提取身份和非身份特征,并将其映射到预训练的 StyleGAN 生成器的潜空间中,实现面部修复和重构。通过大量实验证明,该方法在较少的训练和监督努力的情况下成功重建了具有高质量的整个面部,超过了当前的技术水平。
Mar, 2024
本文提出了一种基于生成对抗网络(GAN)框架的图像修复方法,该方法利用全局 GAN(G-GAN)架构和 PatchGAN 方法结合进行鉴别器网络的构建,可较好地实现图像贴图的局部连续性和全局特征。经大量评估发现,与最新的现有技术相比,该框架在视觉和数量评估方面均取得了显著的改进。
Mar, 2018
该研究提出了一种新的双流网络方法,能够模拟结构约束纹理合成和纹理引导结构重构,并且通过 Bi-directional Gated Feature Fusion 模块和 Contextual Feature Aggregation 模块实现更好的全局一致性和多尺度特征聚合,定量和定性实验证明了该方法的优越性。
Aug, 2021