MAGNet:深度多智能体强化学习的多智能体图网络
本文提出了一种新的多智能体强化学习方法 MAGnet,将深度强化学习、自我关注机制、神经网络结构等技术应用于 Pommerman 游戏,实验结果表明,MAGnet 在该游戏中显著优于现有的 MARL 解决方案,如 DQN,MADDPG 和 MCTS 等。
Nov, 2018
本文介绍了一种基于 Graph Neural Networks 和注意力机制的多代理路径规划算法,在实验中表现良好,即使在非常大规模的情况下也能取得比基准模型高 47%的成功率。
Nov, 2020
本文介绍了一种基于邻域的多智能体强化学习算法,并提出了两种基于超图结构的变体方法,其中利用超图卷积网络实现了信息提取和表示学习,具有实现有效合作的显著优势。
Mar, 2022
该研究分析了完全子图枚举的必要性,证明了通过考虑子图的一个小子集可以获得可比较的表达能力,进而提出了 MAG-GNN,一种强化学习增强的 GNN,用于解决最优子集的组合优化问题。该方法通过将指数复杂度的子图枚举降低为常数复杂度的子图搜索算法,同时保持了良好的表达能力。实验结果显示 MAG-GNN 在多个数据集上表现出竞争性性能,甚至优于许多子图 GNN 方法,并有效减少了子图 GNN 的运行时间。
Oct, 2023
MAGNNETO 是一种分布式的基于机器学习的架构,它使用多智能体强化学习和图神经网络进行分布式流量工程优化,特别是针对 OSPF 中的链路权重进行优化,具有强大的泛化能力和可比较的性能优势。
Mar, 2023
本文介绍了一种使用深度循环多智能体演员 - 评论家框架(R-MADDPG)处理部分可观测设置和有限通信下多智能体协调的方法,并探究了循环效应对团队智能体表现和通信使用的影响。研究结果表明,该框架可以学习随时间变化的依赖关系,处理资源限制,并在智能体之间开发不同的通信模式。
Feb, 2020
本文回顾了多智能体强化学习的一个分支领域 —— 网络化智能体下的去中心化多智能体强化学习。该领域的研究主要集中在多个代理在公共环境中执行顺序决策,而无需任何中央控制器的协调。代理可以通过通信网络与其邻居交换信息。此设置在机器人,无人驾驶车辆,移动传感器网络和智能电网的控制和操作中具有广泛应用。
Dec, 2019
本文探讨了如何在多智能体环境下,运用扩展后的 Deep Q-Learning Network,使两个由独立的 Deep Q-Networks 控制的 agents,相互作用以玩经典的电子游戏乒乓球,以及通过改变 Pong 经典奖励方案,演示出竞争和合作性行为的出现。研究表明 Deep Q-Networks 可以成为在高度复杂环境中研究分散式学习的多智能体系统的实用工具。
Nov, 2015
本研究提出了一种使用图形注意力机制的新型多智能体强化学习算法(Partially Observable Mean Field Multi-Agent Reinforcement Learning based on Graph-Attention),以更有效地捕获邻居智能体的特征信息,以选择更有效的行动,该算法在 MAgents 框架上的三个挑战任务中优于最先进的部分可观测平均场强化学习算法的基线。
Apr, 2023