使用非配对学习技术自由增强图像
本文提出了一种名为 EnlightenGAN 的高效的非监督生成对抗网络,采用了无配对的训练数据来提高低光图像的质量,通过全局局部鉴别器结构,自我规范化的知觉损失融合和注意机制等方法,在不同种类的图像测试中表现优于其他方法。
Jun, 2019
本文提出了一种基于 GAN 的无监督图像增强模型 (UEGAN),利用调制机制和质量损失函数增强图像的视觉质量,消除专业照片编辑造成的风格化问题。我们的质量和定量实验验证了我们的模型的有效性。
Dec, 2020
介绍了 EnhanceGAN,这是一种基于敌对学习的自动图像增强模型,利用弱监督二元标签学习美学图像增强算子,包括分段调色模块和基于深度滤波的美学增强器。其差分性使得能够在端到端的方式下训练 EnhanceGAN 进行美学图像裁剪和色彩增强,实验证明其具有良好的性能。
Jul, 2017
本文提出了一种基于强化学习框架结合图像编辑软件的无配对图像增强方法,能够高效地实现两项任务:照片增强和美颜,得出的实验结果表明该方法相较于其他无配对学习方法具有更好的性能表现。
Dec, 2019
该研究介绍了一种名为 RoCGAN 的新型条件 GAN 模型,该模型在图像生成的任务中表现优异,并在面临严重噪声的情况下使生成器输出的图像更接近目标空间,实验结果表明,RoCGAN 在各种领域的表现都远优于现有的最先进的 cGAN 架构。
May, 2018
本文介绍了一种利用多个输入域来实现图像翻译的方案,使用基于生成对抗网络的多模式生成器结构和一种新的损失项,潜在一致性损失,实现了比现有无监督图像到图像转换方法更好的转换效果。
Nov, 2017
我们提出了一种新颖的轻量化生成对抗网络,使用自然语言描述来进行有效的图像操作。我们提出了一种新的单词级别鉴别器,为生成器提供细粒度的单词级别训练反馈,以便训练一个轻量级生成器,该生成器具有少量参数,但仍然能够正确地关注图像的特定视觉属性,然后进行编辑,而不会影响其他未在文本中描述的内容。与现有技术相比,我们的方法具有更少的参数数量,但仍然实现了有竞争力的操作性能。广泛的实验结果表明,我们的方法能够更好地解耦不同的视觉属性,然后正确地将它们映射到相应的语义词汇,从而使用自然语言描述实现更准确的图像修改。
Oct, 2020
使用条件生成对抗网络(conditional GANs)从语义标签图中合成高分辨率照片般真实的图像,并通过使用新的对抗性损失、多尺度生成器和鉴别器体系结构,生成 2048x1024 的视觉吸引力结果。此外,我们将我们的框架扩展到与两个额外功能的交互式视觉操作,它们是:将对象实例分割信息整合进去以进行对象操作(如删除 / 添加对象和更改对象类别),以及提出一种方法,可以在给定相同输入的情况下,生成不同的结果,允许用户交互式地编辑对象外观。人的意见研究表明,我们的方法在深层图像合成和编辑方面的质量和分辨率方面都显着优于现有方法。
Nov, 2017
介绍了一种基于深度卷积神经网络以及条件生成式对抗网络的通用方法,通过非监督学习来解决图像转换问题,实现了不同域之间的图像转换,并且在多样性方面表现出了很好的通用性。
Jan, 2017
本文提出利用正则流模型建立低光图像与正常曝光图像之间的一对多映射关系,通过一个可逆网络,将低光图像 / 特征作为条件,学习将正常曝光图像的分布映射到高斯分布,从而得以更好地建模正常曝光图像的条件分布,在提高图像亮度、减少噪声和伪影、增强色彩方面表现出更好的定量和定性结果。
Sep, 2021