本文介绍了一种新的图像修复框架,其将传统的基于块的方法和深度学习网络的优势结合起来,即在深度修复网络中植入来自未遮盖区域的块样本,使用纹理记忆指导纹理生成并进行端到端的训练。同时,引入块分布损失以提高合成块的质量。该方法在三个具有挑战性的数据集上(Places,CelebA-HQ,Paris Street-View)表现出更优秀的性能。
Sep, 2020
本文提出了一种基于端到端网络的图像修复方法,使用不同的图像来引导合成新的内容并填充空洞,并在四项研究中展示了优于七种基线方法的更逼真的图像修复结果。
Mar, 2018
提出一种基于多尺度神经网络贴片合成方法的图像修复算法,通过联合优化图像内容和纹理约束,不仅保留了上下文结构,而且通过匹配最相似的中间层特征相关性,产生高频细节。在 ImageNet 和 Paris Streetview 数据集上,该方法取得了最先进的修复准确性。
Nov, 2016
该研究提出了一种新的双流网络方法,能够模拟结构约束纹理合成和纹理引导结构重构,并且通过 Bi-directional Gated Feature Fusion 模块和 Contextual Feature Aggregation 模块实现更好的全局一致性和多尺度特征聚合,定量和定性实验证明了该方法的优越性。
Aug, 2021
该研究使用深度学习、图像分类和计算机视觉技术的综合方法,利用全称为生成对抗网络(GAN)和上下文关注机制实现图像修复
Apr, 2022
本文提出了一种基于生成模型的新型语义图像修复方法,该方法可在缺失的内容相互独立的情况下进行推理,并取得超越其他方法的像素级真实感。
Jul, 2016
本文提出了一种利用扩张卷积密集组合,通过设计自主回归损失、几何对齐约束项和具有局部和全局分支的判别器等方法改进图像修复的 GAN 模型。实验表明,该方法在多个公共数据集上都优于现有的最先进方法。
Feb, 2020
本文提出一种名为 TDANet 的图像修复模型,其通过文本的描述信息和图像的辅助区域来确定修复区的语义内容,利用双模态注意机制提取出明确的语义信息并应用图像与文本匹配损失,其结果表明,在两个公开数据集上,TDANet 模型在定量和定性评测中均达到了新的最佳水平,并且生成的图像与文本描述一致。
Apr, 2020
通过同时训练辅助的上下文重建任务和修复生成器,我们提出了一种生成器无关的设计来解决存在困难的视觉填充问题,该设计在推理期间只需要差补生成器。实验结果表明,该方法在定量和视觉性能方面表现优于现有技术。
Nov, 2020
提出了一种使用 CNN 和 Transformers 进行全局推理的 few-shot generative residual image inpainting 方法,通过图像级和补丁级鉴别器及伪造补丁的对抗训练策略实现高质量修复效果,并通过对比评估表明该方法优于以往的 few-shot image inpainting 方法。
Apr, 2023