进化强化学习:综述
本文介绍了一种基于人工进化算法和深度强化学习相结合的进化增强学习算法,该算法克服了传统深度强化学习算法中时序资格分配、探索效率和收敛性极度敏感的问题,使用基于种群的进化算法来训练深度强化学习代理人,实验结果表明,该方法在多种连续控制基准测试中显著优于传统深度强化学习和进化算法方法。
May, 2018
本文在selective的视角下提供了多智能体强化学习领域的理论分析综述,重点关注Markov/stochastic games和extensive-form games框架下的MARL算法的理论结果,并突出了MARL理论的几个新角度和分类,探讨了在学习博弈论、分散式多智能体、平均场与(非)收敛、多类型任务等方面的有前途的未来研究方向。
Nov, 2019
我们提出了一种简单而有效的强化学习算法,通过使用进化算子在强化学习中引入大的有向学习步骤,并使用具有共同经验缓冲区的强化学习代理人种群进行训练,从而有效地搜索策略空间。
May, 2023
通过双级优化的元进化强化学习(ERL)框架,我们在单个智能体内并行地更新超参数,从而解决了复杂强化学习问题中不足的探索或模型崩溃的问题,验证了其在各种ERL算法上改善学习性能的一致性优势。
Aug, 2023
对多目标强化学习中超参数优化的挑战进行了初步调查,并提出了一种系统性方法来解决这个问题,该方法能够显著提高多目标强化学习代理的性能,并鉴定了未来的研究机会。
Oct, 2023
進化強化學習 (ERL) 通過整合進化算法 (EAs) 和強化學習 (RL) 進行優化,展現了卓越的性能提升。本文綜述了ERL中多樣的研究分支,系統地總結了最近相關算法的發展,並確定了三個主要的研究方向:EA輔助RL優化、RL輔助EA優化以及EA和RL的協同優化。隨後,我們對每個研究方向進行了深入分析,組織了多個研究分支,闡明了每個分支旨在解決的問題以及EA和RL集成如何應對這些挑戰。最後,我們討論了不同研究方向中可能面臨的挑戰和未來的研究方向。
Jan, 2024
在大状态空间的决策领域中,有效选择最大效用的行动是一个主要挑战。本文针对一个游戏领域——Connect-4,开发了一种新颖的进化框架来评估三类算法:强化学习(RL)、极大极小算法(Minimax)和蒙特卡洛树搜索(MCTS)。研究发现,MCTS在胜率方面取得了最好的结果,而Minimax和Q-Learning分别排名第二和第三,尽管后者在决策速度方面表现最快。
May, 2024
本研究聚焦于强化学习(RL)这一人工智能领域,通过介绍其核心概念和方法,填补了学习资源不足的空白。论文提出了一种系统化的学习路径,帮助初学者理解状态、动作、策略和奖励信号等关键组件,进而掌握各种RL算法的应用。其重要发现是为初学者提供了清晰且易于理解的强化学习入门,促进该领域的学习与实现。
Aug, 2024
本研究解决了当前强化学习领域在策略优化中的局限性,提出了一种新颖的方法——祖先强化学习(ARL),该方法将零阶优化的鲁棒梯度估计与遗传算法的探索能力相结合。研究结果表明,ARL在政策搜索中引入了KL正则化,从而显著提升了策略探索的效率,对强化学习的应用具有重要影响。
Aug, 2024