将神经进化与新奇搜索相结合以改进游戏测试输入的生成
采用共享奖励系统鼓励多样性行为是避免进化算法陷入局部极小值的有效方法,用于解决迷宫问题和 Atari 游戏,相比 Novelty Search 方法,本文方法实现更简单且性能更好。
Jun, 2022
该论文调查了将神经进化(NE)应用于游戏的研究,分析了在五个不同的方面中,NE 在游戏中的应用,其中包括选择在游戏中发挥作用的 NE 角色,使用的不同类型的神经网络,这些网络如何进化,如何确定适应性以及网络接收的输入类型,同时还强调了该领域的重要开放性研究挑战。
Oct, 2014
本文通过 NeuroEvolution of Augmenting Topologies(NEAT)方法在协同进化的机器人对战领域进行应用,证明复杂化的进化方式可以更好地发现和改进复杂问题的解决方案,因此我们应该让进化和搜索复杂化并优化以发现和改进复杂问题的解决方案。
Jun, 2011
本研究探索深度神经进化算法是否可用于行为模仿,通过引入一个简单的对抗生成框架,将深度递归网络进化到可以在 8 个 OpenAI Gym 状态控制任务上模仿最先进的预训练代理的能力。实验结果表明,神经进化在生成行为模拟代理方面具有很大的潜力,可以使其在准确度和泛化性方面更具可操作性。
Apr, 2023
我们证明了遗传算法可以在深度人工神经网络上实现良好的性能表现,即使没有梯度信息支持,我们使用深度遗传算法结合新颖搜索技巧在具有挑战性的深度强化学习问题上获得了成功,并且速度比其他算法更快,能够实现高效编码。
Dec, 2017
本文提出了一种将进化搜索和强化学习相结合的框架,通过行为克隆将演化的关卡序列提炼为策略,以生成更快速的关卡,我们将其应用于迷宫游戏和超级马里奥兄弟中,结果表明该方法能够显著缩短关卡生成的时间。
Jul, 2022
本文提出了一种名为自然进化策略(NES)的算法,它是一种比传统进化算法更为规范的黑盒优化方法。NES 在候选解集上维护一个参数化的分布,使用自然梯度来更新分布的参数,以求解更高预期的适应度值。本文介绍了一系列技术,解决了关于收敛、稳健性、样本复杂度、计算复杂度和对超参数的敏感性等问题。对于全局优化和高维空间搜索,从通用的多元正态分布到重尾和可分布的分布,本文探讨了 NES 系列的多种实现。实验结果显示,NES 表现良好,达到了各种标准基准测试的最佳性能。
Jun, 2011
本论文提出了一种新颖的构建图的生成模型的方法,该方法使用了进化搜索和图神经网络实现了强大的适应度函数,从而在一定程度上实现了深度生成模型所不具备的优点,如更高的泛化能力和直接的可解释性。
Apr, 2023
提出了一种基于生成对抗网络驱动的多目标进化算法,通过对父代和子代解进行分类和采样,充分利用生成对抗网络进行有限训练数据的高维优化,取得了理想的效果
Oct, 2019