半监督融合生成对抗网络用于条件图像生成
本文介绍了如何利用自监督学习和半监督学习等技术结合生成式对抗网络,实现在仅使用少量标签数据的情况下,超越当前最先进的深度生成模型,并在 ImageNet 的无监督合成和有条件的情况下,匹配 BigGAN 模型的样本质量。
Mar, 2019
本文提出了一种融合填充生成对抗网络(F2GAN)来解决少样本图像生成问题,该方法通过图像融合和填充细节,并通过鉴别器中的多模式寻求损失以及插值回归损失来保证生成图像的多样性。实验结果表明,该方法在 5 个数据集上的表现优异。
Aug, 2020
提出了一种新的半监督生成对抗网络模型 (SS-GAN),通过适应 GAN 框架,使用一对堆叠的鉴别器来学习数据的边际分布和数据属性的条件分布,特别针对半监督学习,通过有标记和无标记数据学习数据的边际分布并通过有标记数据纯粹地学习属性的条件分布,实验证明该模型相较于已有的半监督条件 GAN 模型具有更好的性能。
Aug, 2017
本论文提出了一个双重投影生成对抗网络 (P2GAN) 模型,学习在数据匹配和标签匹配之间平衡的方法,并通过改善条件生成式对抗网络 (cGAN) 模型中的配对方法解决了分类困难的问题,实验结果表明其在多个真实数据集上具有良好的效果。
Aug, 2021
本研究提出了一种无需标注的无监督学习方法,结合了生成对抗网络和变分自编码器,实现了条件图像生成、前景分割、分级聚类、物体去除和背景补全等多项功能,并在相关任务上取得了最新的最优结果。
Dec, 2019
本文提出了一种新颖的端到端 3D 感知图像生成和编辑模型,通过纯噪声、文本和参考图像等多种条件输入,在 3D 生成对抗网络(GANs)的潜在空间中深入研究并提出解缠特性较好的生成策略,同时采用统一框架进行灵活的图像生成和编辑任务,实现多模态条件下的多样图像生成、属性编辑和风格迁移。广泛实验证明,该方法在图像生成和编辑方面在质量和数量上均优于替代方法。
Mar, 2024
提出了一种简单而有效的无监督方法,通过使用聚类方法自动地生成类别标签,来训练条件生成对抗网络模型(GAN 模型)生成多样而逼真的图像,这种方法在处理模式崩溃方面表现优异,同时在 ImageNet 和 Places365 等大规模数据集上产生多样化的图像,比以前的方法提高了标准的质量指标。
Jun, 2020
使用条件生成对抗网络(conditional GANs)从语义标签图中合成高分辨率照片般真实的图像,并通过使用新的对抗性损失、多尺度生成器和鉴别器体系结构,生成 2048x1024 的视觉吸引力结果。此外,我们将我们的框架扩展到与两个额外功能的交互式视觉操作,它们是:将对象实例分割信息整合进去以进行对象操作(如删除 / 添加对象和更改对象类别),以及提出一种方法,可以在给定相同输入的情况下,生成不同的结果,允许用户交互式地编辑对象外观。人的意见研究表明,我们的方法在深层图像合成和编辑方面的质量和分辨率方面都显着优于现有方法。
Nov, 2017