生成网络的潜空间优化
通过先前训练好的GAN模型,将图像投影到潜在空间中以获取表示,我们可以在MNIST任务和Omniglot任务中成功地保留数字和字符的信息,这种方法可以应用于一次性学习。
Nov, 2016
本研究提出了一种名为Chekhov GAN 1的训练方法,将GAN的训练问题视为在零和博弈中找到一种混合策略,结合在线学习的思想,理论和实践证明了该方法收敛于半浅GAN体系结构,提高了稳定性和性能。
Jun, 2017
本研究将生成式对抗网络的minimax博弈与一个凸优化问题中的Lagrangian函数的鞍点联系起来,并展示了标准GAN训练过程和凸优化的原始 - 对偶次梯度方法之间的联系。此外,本研究提出了一种新的目标函数来训练模型,以解决模式塌陷和生成多样化的问题。实验结果显示了该方法的有效性。
Feb, 2018
本论文提出了一种基于Autoencoder和生成对抗网络的神经网络结构,通过在潜在空间插值的对抗训练,促进了一个凸的潜在分布。该模型的生成器和辨别器均使用了AE,能够生成不模糊的样本,并且具有与原始图像相匹配的高低级特征,样本间的插值也能保持真实图像的潜在空间分布,因此保留了对输入图像的逼真相似性。
Jul, 2018
本文提出了生成潜在近邻(GLANN)的新方法,以代替不稳定的敌对训练,并比传统的GAN和VAE方法生成的图像质量更好,同时也被证明可以用于非对抗无监督图像翻译。
Dec, 2018
利用自然梯度基于潜在空间的优化改进了CS-GAN模型,增强了模型的生成器和辨别器之间的互动,通过在ImageNet数据集上的实验表明,该方法在生成对抗网络训练中可显著提高模型性能。
Dec, 2019
本研究探讨了生成建模中潜在空间选择的最优解以及其确定过程,并提出了一种新的距离度量方法和具体的训练策略来优化潜在空间的选择,进而提高生成效果。
Jul, 2023
通过广义生成对抗网络(G-GANs)框架中引入的群惩罚和体系结构惩罚的方法,我们研究了输入维度对生成对抗网络(GANs)泛化误差的影响,发现存在一种最优输入维度(OID)可以最小化泛化误差,而通过降维和生成器网络结构的自动调整,G-GANs在估计和预测的稳定性和准确性方面得到了显著提升,并在模拟和基准数据上展示了出色的性能。
May, 2024
本研究解决了生成对抗网络(GANs)训练过程资源消耗大、时间漫长的问题。提出了一种新颖的优化方法,通过使用可逆映射(特别是自编码器)在初始数据的双空间内进行训练,从而提高了生成过程的效率,并可能揭示超越人类识别的潜在模式。这一方法有效提升了训练速度和资源使用效率,同时探讨了模型是否能够生成超越人类智能的洞察力。
Oct, 2024