Verco:多智能体强化学习中协调语言沟通的学习
本文提出了一个基于深度确定性策略梯度的多智能体训练框架,利用存储设备并发端到端学习明确的通信协议,来提高小规模系统中智能体的协作和性能,同时研究了不同通信模式对性能的影响。
Jan, 2019
本文提出了一种新的算法,名为 Learning to Coordinate and Teach Reinforcement(LeCTR),通过在协作多智能体强化学习中使每个代理都学习何时提供何种建议,从而改善整个团队性能和学习效果。实证比较表明,我们的教学代理不仅学习速度更快,而且在现有方法失败的任务中也学会了协作。
May, 2018
本研究基于深度神经网络,提出两种学习策略(RIAL 和 DIAL),探究在多智能体感知与互动的环境下,通过学习通信协议最大化共享效益的问题。研究表明通过这种中心化学习、分散式执行的方法能够在通信难题和多智能体计算机视觉问题领域中实现端到端的协议学习。
May, 2016
通过研究 negotiation environment 中不同类型 agent 之间的交互过程,以及不同类型 agent 是否会进行 cheap talk,作者探讨了 cooperation 在语言产生中的必要性问题。
Apr, 2018
本文提出了一个框架,利用神经消息编码器来学习多智能体强化学习中的通信策略,包括消息传输时机、消息内容以及如何保留消息信息。模拟实际的无线网络环境下,与现有技术相比,该框架在游戏性能、收敛速度和通信效率方面都有显著提高。
Sep, 2022
通过在强化学习代理中嵌入和利用语言模型和视觉语言模型的能力,我们设计了一个框架,将语言作为核心推理工具,能够处理一系列强化学习挑战,如有效的探索、重用经验数据、调度技能以及从观察中学习,从而改进了在模拟的机器人操作环境中的性能,并展示了如何利用学到的技能解决新任务或模仿人类专家视频。
Jul, 2023
通过使用深度 Q 学习,研究了多智能体强化学习在具有连续通信通道时的应用,发现基本组合特性会在学习的语言表示中出现。噪声在传达未经历过的概念组合时很重要,引入有倾向性的护理者可以使得新的交流创造出一种更有意义的基础语言。这个研究为深度强化学习与多智能体系统的进一步相关研究提供了平台。
Nov, 2021
本研究使用紧密联系的智能体通过互相交流离散符号彼此合作完成任务。通过分析他们之间的交流,证明了他们发展的语言与网络拓扑有关,并在交通控制器问题上实现了最先进的性能。
Apr, 2020