该论文提出了一种利用 Deep Attention GAN(DA-GAN)进行实例级图像翻译的新框架,可以在高度结构化的潜空间中将来自两个集合的样本进行转换,实例级的对应关系可以通过在学习到的实例对上进行注意力来发现,该方法在应用方面表现出了很好的效果。
Feb, 2018
本文介绍了一种利用多个输入域来实现图像翻译的方案,使用基于生成对抗网络的多模式生成器结构和一种新的损失项,潜在一致性损失,实现了比现有无监督图像到图像转换方法更好的转换效果。
Nov, 2017
介绍了一种基于深度卷积神经网络以及条件生成式对抗网络的通用方法,通过非监督学习来解决图像转换问题,实现了不同域之间的图像转换,并且在多样性方面表现出了很好的通用性。
Jan, 2017
该研究论文探讨图片到图片翻译的问题,以及如何在计算机视觉应用中如上色、修补和分割等方面应用无监督学习和生成对抗网络,并提出两种模型以解决 GAN 稳定性问题,并得出与文献讨论一致的问题假设。
Oct, 2023
本文提出了一种新的基于注意力向导的生成对抗网络 (AttentionGAN),通过生成注意力掩码来识别最具区别性的前景物体,并将生成的输出融合到注意力掩码中,从而获得高质量的目标图像,实验表明,相较于现有的竞争模型,该方法能够生成更鲜明和更现实的图像。
Nov, 2019
提出了一种新型的基于 Transformer 的网络结构 InstaFormer,用于实例感知的图像到图像的转换,可以有效地整合全局和实例级信息,通过自注意力模块在 Transformers 中考虑上下文信息,通过将通过边界框信息从内容特征中提取的实例级特征与这些标记相结合,我们的框架能够学习对象实例和全局图像之间的互动,从而提高实例感知能力,同时在标准 Transformer 中使用自适应实例归一化(AdaIN)代替层规范化(LayerNorm),以启用具有风格编码的多模式翻译。另外,为了提高实例感知能力和物体区域的翻译质量,介绍了一种实例级内容对比损失,定义了输入图像和翻译图像之间的对比损失。实验表明,与最新方法相比,我们的 InstaFormer 具有更好的性能。
Mar, 2022
单个生成器的多领域图像翻译方法 SingleGAN,在多种无配对数据集上显示出明显的优势和普适性。
Oct, 2018
通过在预训练的 StyleGAN2 模型上进行一系列的模型变换,我们提出了一种新的图像到图像 (I2I) 转换方法,并提出了一种反演方法,以在源领域和目标领域之间进行 I2I 翻译。定性和定量评估证明了该方法在图像质量、多样性和与输入和参考图像的语义相似性方面具有优越性能,与最先进的作品相比。
Oct, 2020
本文提出了基于注意力机制的生成对抗网络 AGGAN,在生成图像时使用内置的注意力机制检测最具有辨别性的语义部分并最小化不需要的部分的变化,训练过程中同时考虑对抗损失、循环一致性损失、像素损失和注意力损失,实验表明 AGGAN 比现有模型能够生成更加清晰和准确的图像。
Mar, 2019
本研究提出了一种名为多重 GAN 反演的方法,以解决基于样本的图像到图像翻译中存在的对未对齐图像元组输入和泛化能力不足的问题,并通过实验验证了其相比现有技术的优势。
Mar, 2021