本文提出了一种基于多智能体协作的视觉语义导航方法,通过分层决策框架、场景先验知识和通信机制,可以使多个机器人协同完成探索任务,并在测试实验中表现出与单一智能体模型相比更高的准确性和效率。
Sep, 2021
本文提出了一种可用于有效学习人类行为的交替定向优化方法,以利用现有的单任务数据集,同时改善分类和检索任务的性能表现。
Feb, 2018
如何将不断出现的新异构代理类型纳入协作感知,同时确保高感知性能和低集成成本?本文提出了一种新的可扩展协作感知框架 HEAL,通过建立统一的特征空间和创新的反向对齐来解决该问题。在 OPV2V-H 和 DAIR-V2X 数据集上的实验表明,HEAL 在性能上超越了目前方法,同时将训练参数减少了 91.5%。
Jan, 2024
研究了多智能体策略在混合合作 - 竞争环境下的学习问题,提出使用图神经网络和强化学习联合训练的方法,并可以将其应用在异构多智能体行为的研究中。最终,提出了集合训练的算法,将对手 Agent 的策略融合到训练中,以提高团队的整体表现。
Jul, 2020
本论文通过介绍一个协作的多物体导航任务 CoMON,并研究不同通信机制,分析它们的通信模式,证明了学习出来的通信可以落实于 Agent 观察和环境的 3D 结构。
Oct, 2021
本研究提出了一种名为 Heterogeneous League Training (HLT) 的通用强化学习算法,用于解决异构多智能体问题,试验结果表明 HLT 可以提高异构团队在合作任务中的成功率,是解决策略版本迭代问题的有效途径,提供了评估异构团队中每个角色难度的实际方法。
Nov, 2022
本文提出了一种基于 actor-critic 算法的多智能体学习方法,可以让一组异构代理学习无人机覆盖未知环境的分散控制策略,此方法可被应用于国家安全和紧急响应组织中以提高在危险区域中的情境感知能力。
Oct, 2020
该研究提出了一种基于学习的综合框架,用于多智能体物体重新排列规划,在复杂环境中解决了任务排序和路径规划等挑战。实验证明了该框架的效果和鲁棒性,并改善了比基准方法更好的性能表现(遍历时间和成功率)。
Jun, 2023
在未知环境中设计了由无人机和无人地面车组成的异构机器人系统,通过深度强化学习算法学习的策略,该系统能够在迷宫状的矿山环境中搜索目标并导航到目标;通过引入多阶段强化学习框架和好奇心模块,促使机器人探索未访问的环境;在仿真环境中的实验证明我们的框架能够训练异构机器人系统完成未知目标位置的搜索和导航任务,而现有基线模型可能无法做到,并且加速训练速度。
Aug, 2023
本文提出了一种基于任务表示的团队适应方法,通过学习任务之间的共同结构,使得团队可以在少量的源任务学习之后将协作知识传递到新任务上。我们发现微调转移策略有助于解决那些从头开始难以学习的任务。
Mar, 2022