本文介绍了一种基于人工进化算法和深度强化学习相结合的进化增强学习算法,该算法克服了传统深度强化学习算法中时序资格分配、探索效率和收敛性极度敏感的问题,使用基于种群的进化算法来训练深度强化学习代理人,实验结果表明,该方法在多种连续控制基准测试中显著优于传统深度强化学习和进化算法方法。
May, 2018
这篇文章综述了将进化计算方法与强化学习相结合的最新研究进展和方法,涉及强化学习中的关键研究领域及未来方向,为研究者和实践者提供参考和资源。
Mar, 2023
该研究提出了一种元学习方法,用于学习基于梯度的加强学习算法,即演化可微损失函数,以便代理可以最小化该损失来优化其策略并获得高回报。经实证结果表明,与现成的策略梯度方法相比,所提出的演化策略梯度算法(EPG)在几个随机环境上实现了更快的学习,且其学习的损失可以推广到测试时间外的任务,并呈现出与其他流行的元学习算法截然不同的行为。
Feb, 2018
本文提出了一种新颖的合作共进化强化学习(CoERL)算法,旨在解决高维度神经网络优化效率问题,通过将策略优化问题分解为多个子问题并进化各个子问题的神经网络种群,使用部分梯度来更新策略,以提高采样效率。在六个基准运动任务上的实验表明,CoERL 优于七种最先进的算法和基准模型,并通过消融研究验证了 CoERL 核心要素的独特贡献。
Apr, 2024
本文提出了一种新的进化强化学习模型 (Evolutionary Reinforcement Learning),它将一种名为 Evolutionary Strategies 的进化算法与离线策略深度强化学习算法 TD3 结合起来,利用多缓冲区系统而不是单一共享重放缓冲区进行搜索。该算法的具体实现在 MuJoCo 控制任务上实现了有竞争力的表现,甚至在 3 个测试环境中胜过了著名的 CEM-RL 最先进的状态。
Jun, 2023
本文结合高效的进化策略算法(ES)、直接探索策略和进化智能技术,提出了一种新型快速可扩展的在深度强化学习任务中进行探索的算法,通过在 Atari 游戏和机器人学习领域的实验验证,提高了 ES 在稀疏或陷阱型的深度 RL 任务中的表现。
Dec, 2017
该研究通过神经进化的方式使用演化策略(ES),优化神经网络的权重来进行直接策略搜索,结果表明 ES 能够在许多强化学习基准任务中找到有效的线性策略,相比深度强化学习方法,ES 实现效果与梯度下降算法相当,并且通过直接访问游戏的内存状态,在 Atari 游戏中胜过了 DQN。
Feb, 2024
综述了将强化学习应用于进化算法的研究,讨论了集成方法、应用领域以及未来研究方向。
Aug, 2023
本文针对强化学习问题,重点介绍了进化算法在该问题上的应用,以及替代策略表述、信誉分配方法和问题特定遗传算子等方面的思考,在总结代表性应用的同时呈现了进化方法在强化学习中的优势和劣势。
Jun, 2011
我们证明了遗传算法可以在深度人工神经网络上实现良好的性能表现,即使没有梯度信息支持,我们使用深度遗传算法结合新颖搜索技巧在具有挑战性的深度强化学习问题上获得了成功,并且速度比其他算法更快,能够实现高效编码。