- DPGOMI:差分私有化数据发布与高斯优化模型反向
我们提出了一种新颖的差分隐私数据发布方法,称为具有高斯优化模型逆向的差分隐私数据发布 (DPGOMI),用于解决在深度学习时代中不允许共享敏感信息的数据保护问题。我们的方法涉及使用公共生成器将私有数据映射到潜在空间,然后使用具有更好收敛性能 - 3D GANs 和潜空间:综合调查
本文研究生成对抗网络(GANs)中的潜在空间与三维对象的关系,探讨了几种 GAN 的变体和训练方法,旨在提高 3D GAN 的训练效果,同时提出了未来研究的方向。
- GRAM-HD: 基于生成光辐射流形的高分辨率三维图像生成
本文提出了一种新的 3D-aware GAN,通过在最近的生成辐射流多面体(GRAM)方法定义的一组 2D 辐射流多面体上应用 2D 卷积并应用专用的损失函数进行高效 GAN 训练,从而避免了 prohibitively-expensive - IJCAI优化传输的音乐生成舞蹈
本文介绍了一种名为 MDOT-Net 的音乐到舞蹈优化传输网络,用于从音乐中生成真实生动的 3D 舞蹈编排。
- ICLRGDA-AM: 通过 Anderson 加速解决极小极大优化问题的有效性研究
提出了一个新的极小极大优化框架 GDA-AM,利用 Anderson 混合算法加速 GDA 收敛,解决了同时使用 GDA 时出现的发散问题,并以理论和实验的方式证明该算法在较温和的条件下可以实现二次问题的全局收敛,并改进了 GAN 训练。
- 采用对比学习改进文本生成图像技术
本篇论文提出一种基于对比学习方法的文本到图像合成框架,旨在提升合成图像的质量和语义一致性,通过对 pretraining 和 GAN training 阶段进行改进,该方法在两个流行数据集上的实验结果表明,相对于 AttnGAN 和 DM- - 朝着更好的 GAN 全局损失景观
本文通过对生成对抗网络的全局概貌的分析,证明了一类可分离生成对抗网络存在大量的坏基底,相较之下,使用 RpGAN 合相对更好。
- ICML一种收敛且与维度无关的极小 - 极大优化算法
研究了一种新型的 min-max 优化框架,其中 max-player 在贪心策略下更新参数至一阶稳定点;给出了在平稳性要求下的定理证明,提出了一种利用随机梯度估计的 GAN 训练算法,成功地避免了模式崩溃的问题。
- 冻结鉴别器:GAN 微调的简单基线
本论文研究了如何通过简单的微调方法,冻结鉴别器的下层来训练 GAN。这种方法可以显著提高 GAN 的性能,并在 Animal Face、Anime Face、Oxford Flower、CUB-200-2011 和 Caltech-256 - ICLR生成对抗网络中自适应梯度算法的深入理解
本文旨在从理论和实证角度分析适应性梯度算法在解决非凸非凹极小极大问题中的性能,并提出了一种名为乐观阿达格勒的自适应变体算法,证明了非凸非凹极小极大优化的自适应复杂性,并在生成对抗网络培训中显示出优越性能。
- COEGAN: 评估生成对抗网络中的共进化效应
COEGAN 使用神经进化和协同进化策略来自动设计神经网络架构,以实现更稳定的 GAN 培训方法。在 Fashion-MNIST 和 MNIST 数据集上的实验表明,COEGAN 能够发现高效的架构,并且避免了常见的模式坍塌问题。
- DEGAS: 可微分高效生成器搜索
本研究提出了一种名为 DEGAS 的新型策略,旨在通过差分架构搜索策略和全局潜在优化过程,有效地找到对抗生成网络(GAN)中的生成器,在此基础上,在 CTGAN 模型上优于原始成果,并在较短的搜索时间内比基于强化学习的 GAN 搜索方法获得 - CVPR有效无偏的 FID 和 Inception Score 以及它们的获取方式
本文表明了当评估生成模型时,目前常用的两个评估指标 FID 和 IS 是存在偏差的,偏差的程度还与受评估的模型有关系;同时,本文提出了一种修正偏差的方法,即使用 Quasi-Monte Carlo 积分方法求得准确的评估值,使用这种方法可以 - 局部解决极小化极大化优化问题:跟随脊线方法
本研究提出了一种称之为 Follow-the-Ridge 的新算法,这个算法克服了梯度下降算法在解决 minimax 优化问题时遇到的一些问题,同时在 toy minimax 问题和 GAN 训练中取得较好的效果。
- 使用方差约减外推算法减少 GAN 训练中的噪声
我们研究了随机梯度噪声对生成对抗网络(GAN)训练的影响,并表明它可以防止标准游戏优化方法的收敛,而批量版本收敛。我们提出了一种新颖的随机方差减小外推(SVRE)优化算法,它可以为大多数游戏类别提高文献提出的收敛速度。我们在 MNIST 上 - ECCVLipschitz 正则化如何影响 GAN 训练?
本文研究 Lipschitz 正则化在 GAN 训练中的作用,发现其通过限制损失函数的定义域和可达到梯度值的区间,使得损失函数近似线性化,并且证明了只有这种近似于线性的损失函数才能达到良好的效果。除此之外,文章也证明了只要通过正则化让任何函 - 改良版课程生成对抗网络训练
本文介绍了一种名为 Curriculum GANs 的课程学习策略,使用该策略可提高生成对抗网络(GAN)的鉴别器的强度,进而使学习任务对于生成器更具挑战性,我们证明这一策略对于获得图像生成方面的最新成果非常重要。我们还展示证据表明,这一策 - 什麼訓練方法對於 GAN 的收斂效果最佳?
本文针对 GAN 训练中绝对连续数据和生成器分布的本地收敛性已经得到证明的观点,进一步阐述了绝对连续性要求的必要性。作者证明了非绝对连续分布情况下,不稳定的 GAN 训练不一定收敛,提出了各种正则化策略用于稳定 GAN 训练,并对处于低维流 - 通过双时间尺度更新规则训练的 GAN 收敛于局部纳什均衡
本文提出一种基于二次尺度更新规则的 GAN 训练方法,使用随机逼近理论证明其可以收敛于本地 Nash 均衡点,并且在图像生成方面的表现优于传统 GAN 算法,同时提出了一种新的用于评估 GAN 生成图像质量的指标 Fr\'echet Inc - 基于 Wasserstein GAN 的人脸超分辨率
本文比较了在单幅图像超分辨率上使用 Wasserstein 距离和其他训练目标时,各种 GAN 架构的表现,结果表明,带梯度惩罚的 Wasserstein GAN(WGAN-GP)提供了稳定且收敛的 GAN 训练,Wasserstein 距