多智能体强化学习:实用沟通和控制
本研究考虑了机器人群和远程无线控制任务中的有效通信问题,并提出使用基于 VQ-VAE 编码的 DRL 动态适应量化级别的方案来提高系统性能。
Jan, 2023
本研究主要探讨了如何应用基于观察专家演示的控制器学习算法,训练出端到端的神经网络,用于解决协作多智能体系统中的分布式控制问题,实验结果表明,使用通信策略可以有效提高分布式模型的性能。
Feb, 2023
本文提出了一个框架,利用神经消息编码器来学习多智能体强化学习中的通信策略,包括消息传输时机、消息内容以及如何保留消息信息。模拟实际的无线网络环境下,与现有技术相比,该框架在游戏性能、收敛速度和通信效率方面都有显著提高。
Sep, 2022
基于远程无线控制和 5G 及更高级别系统,本研究研究了优化传输策略以实现有效沟通的方法,提出了采用集合向量量化变分自编码器进行编码,并训练深度强化学习代理动态调整量化水平,通过在基准控制问题上的测试显示其具有显著的性能提升。
Jan, 2024
该论文针对协作多智能体系统中的通信问题,提出了一种分散执行联合策略算法,运用状态 - 行为过程的总相关度估计代表多智能体间内在依赖关系的指标,通过最大化一个该指标的代理量,合成了最小依赖联合策略,并在数值实验中验证其鲁棒性和高性能。
Jan, 2022
本文提出了 Individualized Controlled Continuous Communication Model (IC3Net),在多智能体协作、半协作与竞争环境下,通过门控机制控制持续传输,并使用个性化奖励来提高性能和可扩展性,修正学分分配问题。实验结果证实,IC3Net 网络比基准网络在不同场景下具有更好的训练效率和收敛率,智能体基于场景和可盈利性学会如何传输信息。
Dec, 2018
人机交互中的一个重要问题是何时决定通信,特别是在合作任务中;感知控制理论表明,代理能通过共享相同的意图在合作任务中协作,但对于包含局部最小值的任务,至少有一个代理在适当时刻调整意图通过适时的通信,协调动作,在复杂的搜索空间中实现全局解。
Jul, 2023
本文提出一种生成概率模型,该模型融合了新兴的通信和多智能体强化学习技术,可通过概率推断计划其动作,在通过信息传递实现协作任务的过程中,使用潜在变量估计与规划,基于 Metropolis-Hasting 命名游戏公式推算,实现了有意义的信息传递和协作任务。
Jul, 2023
本文提出了一个基于深度确定性策略梯度的多智能体训练框架,利用存储设备并发端到端学习明确的通信协议,来提高小规模系统中智能体的协作和性能,同时研究了不同通信模式对性能的影响。
Jan, 2019