学习通信感知协调的机器人群体模拟
这篇论文提出了一种名为 “Cyber-Physical POMDP” 的模型,将目标导向通信和网络控制相结合,以实现分散的移动机器人的协调,通过联合训练可以显着提高总体性能并可导致通信行动的隐式协调。
Feb, 2023
本文通过使用新的通信效率高的分布式协作强化学习算法,基于局部信息交换,旨在解决迷宫探索中的协作团队任务,并根据实际的 CORE 网络模拟和实验结果证明其在通信受损环境下可以实现显著的覆盖精度和效率的提高。
May, 2023
本文研究了如何使用有限的传感能力控制一组合作智能体,使用了基于演员 - 评论家算法的深度强化学习以近似 Q 值函数和策略评估,评估了在寻找和维持距离和定位目标方面的性能。
Sep, 2017
本文提出了一个基于深度确定性策略梯度的多智能体训练框架,利用存储设备并发端到端学习明确的通信协议,来提高小规模系统中智能体的协作和性能,同时研究了不同通信模式对性能的影响。
Jan, 2019
本文研究了机器人群体控制器的设计,并探索了一种进化方法来缓解人类开发者对控制器细节和群体行为之间联系的困难。使用微分进化来发展神经网络控制器,实现机器人遵循环境特征的梯度并解决任务。研究表明,进化所得解决方案在控制较差的情况下具有最大的灵活性,而有一个群体规模的 “甜蜜点”,同时观察到群体的集体运动,展示了真正的新兴行为,这是进化过程中未被代表和选择的。
Mar, 2022
本文提出了 “协同感知” 问题,通过一个能够学习的方式,使机器人能够将其本地观察结果与相邻代理的结果组合在一起,以提高感知任务的准确性,在网络通信协议的启发下,提出了一个多级握手通信机制,以优化场景理解任务,如语义分割。在 AirSim-CP 数据集上的实验表明,我们的握手通信方法可以将准确率提高约 20%,与使用带宽的四分之一的集中式方法相媲美。
Mar, 2020
本文提出了一个框架,利用神经消息编码器来学习多智能体强化学习中的通信策略,包括消息传输时机、消息内容以及如何保留消息信息。模拟实际的无线网络环境下,与现有技术相比,该框架在游戏性能、收敛速度和通信效率方面都有显著提高。
Sep, 2022
本研究基于深度神经网络,提出两种学习策略(RIAL 和 DIAL),探究在多智能体感知与互动的环境下,通过学习通信协议最大化共享效益的问题。研究表明通过这种中心化学习、分散式执行的方法能够在通信难题和多智能体计算机视觉问题领域中实现端到端的协议学习。
May, 2016
研究探索了利用分散的机器人系统在无限制的环境中实现环境特征平均值的共识,以及在平均值处理时网络拓扑结构、精度误差等因素的因果关系,并提出了一个有效的控制算法,并展示了其在机器人群实验中的效果和应用前景。
Feb, 2023