用于深度多智能体强化学习的 Q 值路径分解
围绕合作多智能体强化学习,实现了依照价值分解及参数共用两大设计原则,其中心的 Q 函数通过局部化的 Q 网络在代理间共享参数。然而,我们证明在某些环境中,比如高度多模式的奖励环境下,价值分解以及参数共享会引起问题并导致不良结果。相反,个体策略的策略梯度方法在这些情况下可以收敛到最优解,并部分支持最近在许多 MARL 测试床上表现良好的 PG 方法。得出实验结果后,我们提出实用建议,并在简化的矩阵和网格世界游戏以及 StarCraft 多代理挑战和谷歌研究足球等各种领域进行了实证验证。希望我们的研究能够为开发更普遍和更强大的 MARL 算法的社区带来益处。
Jun, 2022
本文提出了一种基于多头注意力机制和 Q-value 分解的深度多智能体强化学习算法和最大化算法,并在 StarCraft 基准测试中表现出国内领先的性能。
Feb, 2020
本文研究了多智能体强化学习中的值函数分解方法在协作游戏中的适用情况、算法的收敛性质、深度神经网络的表示法及其应用,进一步提出了分解型协作游戏的概念,并理论证明了分解型协作游戏中多智能体适应 Q - 迭代算法(MA-FQI)可以导致最优 Q 函数。
Feb, 2022
本文提出了一种名为 Collaborative Q-learning (CollaQ) 的多智能体协作强化学习算法,它利用 Multi-Agent Reward Attribution (MARA) loss 进行训练并在 StarCraft 多智能体挑战中表现出色,尤其支持 ad hoc 团队玩法。该算法能将每个智能体的 Q 函数分解为自表达项和交互项,并在无需重新训练 / 微调的情况下,显著提高 SoTA 超过 30%。
Oct, 2020
利用价值分解网络架构解决合作多智能体强化学习中的观测部分性、虚假奖励和 “懒惰智能体” 问题,并在与共享权重、角色信息和信息通道相结合的情况下,在部分可观测的多智能体领域取得优越结果。
Jun, 2017
通过使用层次相关传播,我们将联合价值函数的学习与本地奖励信号的生成分开,提出了一个新的合作多智能体增强学习算法:相关分解网络。我们发现,尽管 VDN 和 Qmix 的性能会随着冗余智能体数目的增加而降低,但 RDN 则不受影响。
Mar, 2023
本论文扩展了之前的研究,提出了一种能够使用 Max、Nash 和 Maximin 策略学习各种 Q 向量的深度 Q 网络(DQN)算法,并在双机械臂合作举起锅的环境中展示了这种方法的有效性。
Jun, 2024
本文提出了一种多智能体 Actor-Critic 算法,通过分解多智能体问题以及知识蒸馏和价值匹配等方法,使智能体之间能够共享信息并解决维度灾难问题,进而在离散和连续动作空间中实现更好的性能。
Mar, 2019
在多智能体强化学习中,QMIX 使用非负函数逼近器表示联合动作价值,并在 StarCraft II 微观管理任务中取得了迄今最好的性能。然而,我们的实验表明,在某些情况下,QMIX 与 A2C 不兼容。为了在培训效率和算法性能之间获得合理的折衷,我们将价值分解扩展到与 A2C 兼容的演员临界值,并提出了一种新的演员临界值框架,即价值分解演员临界值(VDACs)。我们在 StarCraft II 微观管理任务测试平台上评估 VDACs,并证明所提出的框架改进了其他演员临界值方法的中位性能。此外,我们使用一组消融实验来确定对 VDACs 的性能做出贡献的关键因素。
Jul, 2020
本研究提出了一种名为 value propagation 的基于 softmax 时间一致性和分布式优化的 MARL 算法,实现了非线性函数逼近、非 asymptotic 收敛率、离线策略转移和控制的收敛保证。
Jan, 2019