带有可变智能体数量的协作任务的 K 近邻多智能体深度强化学习
本文探讨了如何在多智能体环境下,运用扩展后的 Deep Q-Learning Network,使两个由独立的 Deep Q-Networks 控制的 agents,相互作用以玩经典的电子游戏乒乓球,以及通过改变 Pong 经典奖励方案,演示出竞争和合作性行为的出现。研究表明 Deep Q-Networks 可以成为在高度复杂环境中研究分散式学习的多智能体系统的实用工具。
Nov, 2015
此篇论文介绍了多智能体深度强化学习的不同方法,包括非静态性、部分可观测性、连续的状态和操作空间、多智能体训练机制、多智能体转移学习,并分析和讨论了这些方法的优缺点及其相关应用,旨在促进更加健壮和高效的多智能体学习方法的发展。
Dec, 2018
探索使用强化学习解决多智能体问题,将多智能体强化学习问题视为分布式优化问题处理,假设多智能体群体中每个智能体的策略在参数空间中相近且可以用单一策略代替,结果表明该算法在协作和竞争任务上比现有方法更加有效。
May, 2018
本研究提出一种具有 Few-shot Learning 算法的网络架构,允许在集中式训练期间代理的数量变化,这可以使新代理的模型适应速度比基线模型快 100 多倍。
Aug, 2022
本文综述分布式深度强化学习的研究进展,对比不同方法、研究关键因素,回顾工具箱的发展,并且基于综述开发出多人、多智能体分布式深度强化学习工具箱,并在复杂游戏环境中进行验证。最后指出未来挑战和发展方向。
Dec, 2022
本文研究深度强化学习在多智能体领域的应用,提出一种基于演员 - 评论家方法的适应性策略,可成功学习需要多智能体协作的复杂策略,并通过使用每个智能体的策略集进行训练,得到了更强大、更健壮的策略。在合作和竞争场景中,我们的方法相比现有方法能够发现各种物理和信息协调策略。
Jun, 2017
该论文研究了一种新型的多智能体问题,其中一个智能体通过复制自身来更好或更高效地完成单一智能体任务。我们提出了一种学习算法,用于解决多重复制问题,它利用价值函数的结构有效地学习如何平衡添加额外复制的优势和成本。
Sep, 2023