- 通过 ChatGPT 从合同中提取规范:机遇与挑战
研究 ChatGPT 在从合同中提取规范的效果。ChatGPT 在提取规范方面展现了良好的性能,并且不需要训练或微调,从而避免了在该领域通常无法获得的标注数据的需求。然而,研究发现 ChatGPT 在提取这些规范方面存在一些限制,导致错误的 - AAAI公平博览会:将人类感知引入集体决策
社会决策中公平性是最值得追求的原则之一,它在过去几十年中得到了广泛研究,近年来也得到了多智能体系统社区的重视。然而,这些研究往往不能充分捕捉到现实世界问题的复杂性和人们对公平性的认知。我们认为,社会规划者(设计者)不仅应该认为公平解是可取的 - 多智能体系统中的可量化可观测性分析
提出一种新方法,利用量化的透明度分析技术来量化分析部分可观测多智能体系统的可观测性质,并通过量化分析技术以及模型验证技术实现了该方法。
- 关于多智能体非线性滤波和学习的动态
本篇论文研究了具有非线性滤波和学习动态的多智能体网络系统的行为,提出了多智能体网络系统中一个智能体的行为的一般表达式,并给出了实现协同学习行为的条件。同时,还介绍了该框架在分布式学习和联邦学习场景中的应用。
- GPT 循环:多智能体系统的自适应决策
通过融合 Generative Pre-trained Transformers (GPT) 这类大型语言模型的高级推理能力和 Multiagent (MAS) 系统,这篇论文介绍了一种新的方法,“GPT-in-the-loop”,用于增强 - 面向多智能体系统的合一理性模型
本研究提出了一种通用模型,旨在设计具有社交智能的个体理性学习者的 AI,以实现其与其他类型的代理人的有效合作。该研究重点讨论了合理性、后悔和泛饱和效率对于实现社交智能的影响,并探讨了构建稳健的系统的重要性。
- 自我协议:微调语言模型以寻求不同意见的一致性
本文提出了一种名为 Self-Agreement 的新框架,该框架利用由大型语言模型生成的数据来自主找到多种意见之间的一致性,通过 fine-tuning 模型,比 GPT-3 具有更高的识别多种意见之间一致性的性能,并且只需要 GPT-3 - 多智能体系统中的人类价值观
本文提供一个源于社会科学、能够形式化表达价值的形式化表述,并使用此表述明确了实现 AI 价值对齐的关键挑战和研究路线图。
- 团队体育分析中的多智能体挑战
该论文探讨了团队运动分析以及多智能体系统领域内几个挑战和机遇之间的相关性,重点关注入侵类游戏,并阐述了短期内的比赛策略(教练员)和长期的团队规划(管理)两个方面的新颖应用。
- 面向复合攻击的异构多智能体系统弹性输出控制:数字孪生方法
该论文研究了异构多智能体系统的分布式弹性输出包含控制,针对复合攻击,包括拒绝服务攻击,虚假数据注入攻击、伪装攻击和行为攻击,并通过应用数字孪生的思想提出了二层协议,使问题可以分别在高保密度的数字孪生层和更容易利用的物理层上得以解决。该论文的 - 合作多智能体规划中的差分隐私
提出一个保护多智能体系统的隐私的框架,通过应用差分隐私机制来保障多智能体间的通信,并分析隐私强度和团队表现之间的权衡,进而综合出了一种鲁棒性好的策略,该策略将总相关度的价值减少,使得在私有和非私有通信实现下团队表现的差别仅为 3%。
- 从智能代理到值得信赖的以人为中心的多智能体系统
南安普顿大学的代理、交互与复杂性研究小组在多智能体系统 (MAS) 领域有着悠久的研究历史,已经在 MAS 学习、协调智能体系统的博弈论技术、表示和推理的形式方法等方面做出了实质性的科学贡献。该文重点介绍了该小组取得的关键成果,并详细阐述了 - 通用多人非对称博弈的进化博弈理论分析
提出一种新的方法来分析多智体系统中的对称和不对称多人博弈,并在 Wolfpack 和 StarCraft II 上进行了实证博弈理论分析,证明了该方法的有效性。
- IJCAI多智能体学习中团队合作的益处探究
本文提出了一种基于组织心理学和早期人工智能团队工作的新型强化学习智能体多智能体团队模型,验证结果表明,尽管有不合作的动机,代理分成团队后仍然能发展出合作的政策,能在团队内更好地协调和学习相应角色,并比所有代理利益一致时获得更高的回报。
- AAAI以同意为负责任自主的基础
本文提出了关于如何实现运行时智能代理负责任的动态方面。首先,提供了关于同意的概念分析,以及如何理解同意可以帮助实现负责任的自主性。其次,概述了人工智能所面临的挑战,特别是代理和多智能体系统,在多智能体系统中建模同意并应用同意实现负责任性的基 - 单策略最佳响应下的迭代经验博弈求解
通过将经验博弈分析与深度强化学习相互交错,Policy-Space Response Oracles(PSRO)是一种用于学习多智能体系统中的策略的通用算法框架,其在每次迭代中使用深度强化学习来训练最佳响应,从而减少了模拟调整所需的计算量。 - D3C: 多智能体学习中降低混沌代价
D3C 算法通过引入 Price of anarchy 的不可微上界,使得每个多智能体可以调整其激励机制,从而提高系统的效率。
- AAAI从少到多:大规模动态多智体课程学习
本文通过设计一种新的名为 DyMA-CL 的动态多智能体课程学习方法,在小规模智能体学习场景的基础上逐步增加智能体数量来解决大规模多智能体学习问题。同时,提出了三种跨课程的转移机制来加速学习过程,并设计了一种名为 DyAN 的动态智能体数量 - ICLR动作语义网络:考虑多智能体系统中动作的影响
提出一种名为 Action Semantics Network (ASN) 的网络架构,利用神经网络明确表示多智能体之间的行动语义,以提高多智能体协作的表现,适用于 StarCraft II 和 Neural MMO。
- ICML多智能体系统中的策略表示学习
我们提出了一个用于多智能体系统中建模代理行为的泛化学习框架,将代理建模作为表示学习问题,并使用模仿学习和代理识别的算法进行无监督学习,以构建代理策略的表示形式。在具有挑战性的高维连续控制和通信合作环境中,我们经验证明该框架对于使用深度强化学