本研究主要探讨了如何应用基于观察专家演示的控制器学习算法,训练出端到端的神经网络,用于解决协作多智能体系统中的分布式控制问题,实验结果表明,使用通信策略可以有效提高分布式模型的性能。
Feb, 2023
研究探索了利用分散的机器人系统在无限制的环境中实现环境特征平均值的共识,以及在平均值处理时网络拓扑结构、精度误差等因素的因果关系,并提出了一个有效的控制算法,并展示了其在机器人群实验中的效果和应用前景。
通过机器人之间的 peer-to-peer 通信,在使用高斯信念传播在非线性因子图上对机器人网络观测的概率结构进行计算的基础上,我们实现了一个灵活的 Robot Web 解决方案,可以解决千个机器人相互交互的问题,即使测量传感器或通信数据包出错,该方法也具有容错性。
Feb, 2022
通过将基于梯度的软体物理模拟器的规划器提炼成基于注意力机制的神经网络,我们的多机器人操作系统在适应环境变化、处理任务时表现更好,并且可以应用于训练中未见过的配置。
Nov, 2022
通过构建具备全局认知能力的自动机群,基于扩散模型,利用 Laplacian 算子分析环境,识别并分类不同的场景形状,验证了光谱自动机群在复杂条件下的有效性,并为适应未知地形、分工与共识形成等挑战性任务提供了一种可行的解决方案。
Mar, 2024
本文研究了机器人群体控制器的设计,并探索了一种进化方法来缓解人类开发者对控制器细节和群体行为之间联系的困难。使用微分进化来发展神经网络控制器,实现机器人遵循环境特征的梯度并解决任务。研究表明,进化所得解决方案在控制较差的情况下具有最大的灵活性,而有一个群体规模的 “甜蜜点”,同时观察到群体的集体运动,展示了真正的新兴行为,这是进化过程中未被代表和选择的。
Mar, 2022
通过模拟,本文比较了 3 种 auction 和 hedonic 游戏算法应用于同构和异构机器人集合的效果,探讨了 coalition formation algorithm 在大型机器人集合中分配任务的挑战和转化路径。
Jun, 2023
本文研究了如何使用有限的传感能力控制一组合作智能体,使用了基于演员 - 评论家算法的深度强化学习以近似 Q 值函数和策略评估,评估了在寻找和维持距离和定位目标方面的性能。
Sep, 2017
本文通过使用新的通信效率高的分布式协作强化学习算法,基于局部信息交换,旨在解决迷宫探索中的协作团队任务,并根据实际的 CORE 网络模拟和实验结果证明其在通信受损环境下可以实现显著的覆盖精度和效率的提高。
May, 2023
我们提出了一种设计上下文感知的群体控制智能代理的方法,通过运用群体统计量和行为库选择合适的参数,增加控制代理的情境感知而不损失计算效率,成功地在单一群体和多样化群体中进行群体管理。