自我提炼 StyleGAN: 以网络照片为基础的生成
提出了一种简单而有效的无监督方法,通过使用聚类方法自动地生成类别标签,来训练条件生成对抗网络模型(GAN 模型)生成多样而逼真的图像,这种方法在处理模式崩溃方面表现优异,同时在 ImageNet 和 Places365 等大规模数据集上产生多样化的图像,比以前的方法提高了标准的质量指标。
Jun, 2020
本文介绍了一种使用图像对图像网络训练的方式来将 StyleGAN2 的特定图像处理提炼成图像对图像的处理方式,展示了通过这种方式实现的几种人脸图像处理效果,并显示出生成质量可与 Backpropagation 方法和现有的最先进方法相媲美。
Mar, 2020
这篇论文提出了一种基于输出一致性和潜在空间的语义关系的潜在方向的蒸馏方法,以解决 StyleGAN 的蒸馏问题,该方法在蒸馏 StyleGAN2 和 StyleGAN3 方面的效果显著优于现有的 GAN 蒸馏方法。
Aug, 2022
本文介绍了一种基于 StyleGAN 的语义编辑方法,可以局部移植另一张图像的特征,而不需要额外的监督或复杂的操作,实现了对 GAN 图像的语义编辑,并提高了图像的真实感。
Apr, 2020
该研究提出了一种新的无监督算法 ——Style and Content Disentangled GAN(SC-GAN),该算法可以让训练的生成敌对网络(GAN)以一种分离风格和内容的方式学习数据的表征。
Nov, 2018
通过自我监督学习实现数据增强,使用样本高保真度模型 Fine-tuning 编码器来提高人脸识别精度,在众多实验中经过对未标记数据集的预训练验证,得出这一自我监督策略在有限的标记数据训练数据上最为有效,对定制人脸识别任务以及面临隐私问题时可以行之有效。
Oct, 2022
本文提出了一种基于 StyleGAN2 预训练模型的图像翻译方法,可在不平衡数据上进行无监督学习,通过简单的微调技术即可学习有限数据,并且可以生成符合源图像结构的逼真目标图像。
Jun, 2021
本文提出了一种基于 StyleGAN 的半监督高分辨率解缠方法,旨在克服现有解缠方法在处理高分辨率图像、重视解缠表示的限制以及无监督设置下的不可识别性等局限性。实验结果表明,使用仅有 0.25%〜2.5%的标记数据,就可以在合成和真实数据集上实现良好的解缠,同时提出了新的指标来量化生成器的可控性,并且在探究解缠表示学习和可控生成之间的权衡时,发现其之间存在重要的平衡关系。
Mar, 2020
本文提出了一种基于风格迁移文献的替代生成对抗网络的生成器体系结构,能够自动学习高级属性和生成图像中的随机变化,改善传统的分布质量量度标准,提高内插质量和交互性能,同时也更好地分离出潜在的多变因素。
Dec, 2018
通过新型神经网络 Urban-StyleGAN,使用分组策略和无监督潜在空间探索算法,实现了更好的城市场景生成和内容控制。
May, 2023