SPatchGAN:一种基于统计特征的鉴别器,用于无监督的图像到图像的转换
通过引入具有扩张卷积的鉴别器以及多尺度感知损失,不仅可以更好地表示物体的形状误差,同时还可以更好地表示在具有挑战性的玩具数据集中的形状变形,以及在人类、娃娃和动漫面孔,以及猫和狗之间存在显着数据集变化的复杂映射中。
Aug, 2018
本文提出了 SPA-GAN,一种用于图像转换任务的新型空间关注 GAN 模型,它可以直接将注意机制引入到 GAN 体系结构中,以帮助生成器更加聚焦于源域和目标域之间的最具区分性的区域,从而产生更逼真的输出图像。在 SPA-GAN 训练中,引入了额外的特征图损失以保留域特定的特征,通过基准数据集上的定性和定量比较,SPA-GAN 相对于现有的引导注意力 GAN 模型表现出了更好的性能。
Aug, 2019
本文提出了一种基于风格迁移文献的替代生成对抗网络的生成器体系结构,能够自动学习高级属性和生成图像中的随机变化,改善传统的分布质量量度标准,提高内插质量和交互性能,同时也更好地分离出潜在的多变因素。
Dec, 2018
本文提出了 SwitchGAN 来进行多领域人脸图像翻译。使用更自适应的辨别器结构和匹配的生成器来解决现有方法中存在的领域分布匹配的问题。引入基于特征切换的操作来进行特征选择和融合。实验结果表明,我们的模型在 Morph、RaFD 和 CelebA 数据库上均能取得比 StarGAN、AttGAN 和 STGAN 更好的翻译结果。此外,我们还引入了一种控制属性强度并提取内容信息的新功能。
Nov, 2021
提出了一种分组生成对抗网络 (SG-GAN) 的方法,可在少量标记数据的情况下识别图像并进行多任务学习,通过实验验证在面部图像处理方面的优越性能。
May, 2018
介绍了一种基于深度卷积神经网络以及条件生成式对抗网络的通用方法,通过非监督学习来解决图像转换问题,实现了不同域之间的图像转换,并且在多样性方面表现出了很好的通用性。
Jan, 2017
本文提出了基于注意力机制的生成对抗网络 AGGAN,在生成图像时使用内置的注意力机制检测最具有辨别性的语义部分并最小化不需要的部分的变化,训练过程中同时考虑对抗损失、循环一致性损失、像素损失和注意力损失,实验表明 AGGAN 比现有模型能够生成更加清晰和准确的图像。
Mar, 2019
本研究使用 Sliced Wasserstein Distance 开发了一种新的算法,能在两个图像之间显式快速地最小化贴片分布之间的距离,从而消除传统计算机视觉算法的计算难度,并能在几秒钟内生成高质量的图像。
Mar, 2022
介绍了一种基于 GAN 的全新图像到图像翻译方法,其中使用同层网络的潜在空间来保留图像内变换,不再需要约束生成器的循环一致性限制,实现了对高级形状和语境等更复杂领域的转换。
Feb, 2019
本文提出了一种新的基于注意力向导的生成对抗网络 (AttentionGAN),通过生成注意力掩码来识别最具区别性的前景物体,并将生成的输出融合到注意力掩码中,从而获得高质量的目标图像,实验表明,相较于现有的竞争模型,该方法能够生成更鲜明和更现实的图像。
Nov, 2019