高效有效的 GAN 结构搜索的离线策略强化学习
本文提出了具有可证明收敛保证的生成式对抗网络 NAS (GA-NAS),并基于权重的鉴别器提供的奖励,采用增强学习训练生成器,探索搜寻空间而无需评估大量体系结构,通过三个公共 NAS 基准测试,在多个情况下 GA-NAS 都能打败已发布的最佳结果,同时 GA-NAS 可以处理特定搜寻约束和空间,能用于改进其他 NAS 方法找到的优化基线的 ImageNet 准确性或参数数量。
May, 2021
本文介绍了一项有关 AutoGAN 的初步研究,这是将神经架构搜索算法引入生成对抗网络中的首个尝试。通过使用 RNN 控制器来引导搜索生成器构架的变化,实验结果验证了 AutoGAN 在无条件图像生成任务中的有效性,并与当前最先进的手工制作的 GANs 相比,取得了高竞争性的表现。
Aug, 2019
本文提出了一种专为生成对抗网络(GAN)设计的 AdversarialNAS 方法,它是第一种能够同时搜索生成器和鉴别器架构的方法,并且不需要计算任何额外指标以评估搜索架构性能,该方法在 CIFAR-10 上取得了新的最优状态下的 FID 分数 10.87 和高竞争的 Inception Score 8.74,并且也在 STL-10 上取得了新的最优状态下的 FID 分数 26.98 和 Inception Score 9.63。
Dec, 2019
本研究提出了一种名为 DEGAS 的新型策略,旨在通过差分架构搜索策略和全局潜在优化过程,有效地找到对抗生成网络(GAN)中的生成器,在此基础上,在 CTGAN 模型上优于原始成果,并在较短的搜索时间内比基于强化学习的 GAN 搜索方法获得更好的结果.
Dec, 2019
本研究提出一种名为 GraphNAS 的图神经网络结构搜索方法,可用于自动搜索最佳图神经网络架构,通过强化学习训练循环网络,实现生成变长字符串,针对验证数据集的期望准确性最大化,实验结果表明在传导和归纳性学习设置中的节点分类任务中,GraphNAS 具有一致更好的性能,并可设计出一种与最佳人工设计的结构相媲美的新型网络架构。
Apr, 2019
本文提出了一种基于深度神经网络的自动化设计架构的新框架,该框架使用强化学习代理作为元控制器,通过功能保持变换在当前网络的基础上,尝试增加网络深度或层宽。在 CIFAR-10 和 SVHN 基准数据集上的测试表明,该方法在受限的计算资源下可以设计出具有高竞争力的网络,并在不使用跨层连接的条件下实现了 4.23%的测试误差率。
Jul, 2017
本文提出一种基于多目标进化策略的两阶段神经结构搜索方法 (EAGAN),旨在稳定生成对抗网络(GANs)的训练过程以提高图像生成性能,实验结果表明其有效性。
Nov, 2021
本文比较了基于强化学习和进化算法的两种神经架构搜索方法来优化图神经网络,结果在包括 7 个数据集的两个搜索空间内显示出两种方法的准确性与随机搜索相似,引出了有多少搜索空间维度实际上与问题相关的问题。
Jul, 2020
该论文介绍了使用强化学习和一次性训练为指导原则的自动神经架构搜索框架 DQNAS,用于生成具有优越性能且具有最小可扩展性问题的神经网络架构。该框架可以减少设计卷积神经网络的时间和测试成本。
Jan, 2023