- StyleGAN 中的面孔身份感知解缠
通过将 TypeIVBasicCard-B(T - 基本卡 - B)上的 TypeI 基本卡 - B(T - 基本卡 - B)与 TypeI 机读卡 - B(T - 机读卡 - B)及 TypeI 机读卡基础数据 - B(T - 基础数据机 - ICML裁剪内部层:一种用于高效 U-Net GAN 的结构化剪枝策略
本研究通过分层修剪来压缩过度参数化的 U-Net 生成器,以用于图像到图像的翻译和语音驱动的说话人生成上,并呈现了学习结构化修剪内层的过滤器来提高效率的结果。
- CVPROSSGAN: 开放集半监督图像生成
介绍了一种具有挑战性的条件 GAN 训练方案,称为开放集半监督图像生成,该方案的训练数据集由带有标签的数据和属于带有标签的数据类别之一的样本的未标记数据两部分组成,通过熵正则化,使用有标记数据训练的分类器能够将样本的重要性量化为置信度,从而 - CVPR使用超调制将无条件 GAN 转化为有条件 GAN
本论文旨在通过构建超调制生成网络,利用先前训练好的非泛化 GANs 来实现对条件 GANs 的迁移学习,提高训练的效率和样本利用率,并运用对比学习进一步提高判别器的性能。
- 跨类别知识传播的高效条件 GAN 迁移
提出了一种从已有条件图像生成模型迁移知识,提高在新类上的生成效率的方法,该方法利用条件批标准化技术从旧类向新类传播知识,实验证明该方法优于现有的方法。
- ICCV场景图预测的生成组合增强
通过使用合成的稀有场景图并基于条件生成对抗网络的模型,可以解决在场景图生成中面临的组合泛化问题,提高新颖组合成分的准确性
- CVPR带有条件 GAN 的面罩引导肖像编辑
本文提出了一种通过使用面部覆盖蒙版的条件生成式对抗网络生成更具多样性、质量、可控性的逼真面部,该方法可用于本地面部编辑、面部合成和交换,同时提供了数据增强的选项以加强面部分析的性能。
- 使用对抗训练从单个深度图像完成 3D 语义场景
本研究旨在探讨利用生成对抗网络进行三维场景填充的潜力与效率,并通过几个数据集的实验验证了这种模型优于传统三维卷积神经网络在一定程度具有对齐的数据集内。
- ICCV弥合地对空图像匹配的领域差距
本研究提出了一种基于条件 GAN 的新方法,通过合成俯视图像,将两个视图之间的差距最小化,实现了对视觉实体的跨视图建模并进行特征融合,最终在 CVUSA 数据集上成功实现了景点检索任务。
- ICLR在空间上不同的位置生成多个物体
该研究提出了一种新的方法,通过在生成器和鉴别器中添加物体路径,只需要边界框和所需物体的标签即可控制任意数量的物体在图像中的位置。
- 自监督生成对抗网络中的辅助旋转损失
利用对抗性训练和自监督技巧,通过任务的表示学习促进判别器学习有意义的特征表示的全无监督学习方法产生高质量的图像。在相同的条件下,自监督生成对抗网络的表现与有标记数据的生成网络相似。同时,我们还演示了该方法可扩展到一个无条件的图像集中,以实现 - 自监督 GAN 抵御遗忘
本文介绍了如何通过自我监督方法对 GAN 模型中的鉴别器进行改进,以避免其出现遗忘现象,提高模型性能。
- KDDGAN 中的多个条件输入解耦
提出了一种用于控制 GAN 生成图像中多个输入条件效果的方法,并展示了在计算机辅助时装设计中对服装图像的颜色、纹理和形状的控制,通过自定义条件 GAN 并加入一致性损失函数对输入属性进行了分离,实验表明,我们可以逐个地调整输入属性,引导网络 - 快速收敛用于图像合成的条件生成对抗网络
在真 / 假分类器基础上,通过增加高级辅助分类器,引入一个额外的 “假” 类来避免混淆生成和真实数据,从而实现快速收敛条件下的图像合成
- CVPR基于有条件的 GAN 的高分辨率图像合成和语义操作
使用条件生成对抗网络(conditional GANs)从语义标签图中合成高分辨率照片般真实的图像,并通过使用新的对抗性损失、多尺度生成器和鉴别器体系结构,生成 2048x1024 的视觉吸引力结果。此外,我们将我们的框架扩展到与两个额外功 - NIPS可逆条件 GAN 用于图像编辑
本文对条件生成对抗网络进行研究和评估,采用编码器来反向映射 cGAN,可重建和修改真实图像,这种结合方式被称为可逆 cGAN,可对真实图像进行复杂的确定性修改。