不可预测领域谈判团队通用的一致接受协议
为解决多智能体协同中的最优性和复杂性问题,研究提出了一种统一框架,称为 COM-MTDP,它将多智能体理论结合并推广,并提供了一种可用于评估最优性 - 复杂性交换的工具,并为团队协调算法的开发提供了基础;通过该框架分析了不同问题领域下构建最优团队的计算复杂性,以及了两种联合意图策略的优选通信策略比较。
Jun, 2011
本文提出了一种基于组织心理学和早期人工智能团队工作的新型强化学习智能体多智能体团队模型,验证结果表明,尽管有不合作的动机,代理分成团队后仍然能发展出合作的政策,能在团队内更好地协调和学习相应角色,并比所有代理利益一致时获得更高的回报。
May, 2022
在多智能体环境中学习合作行为的现有方法通常假设相对限制性的情景,在完全合作的多智能体强化学习中,学习算法控制着场景中的所有智能体,而在特定团队合作中,学习算法通常只控制场景中的单个智能体。然而,在现实世界中,许多合作场景要求更灵活的学习方法。本文提出了 N - 智能体特定团队合作算法(POAM),用于解决在评估阶段必须与动态变化的不同类型的队友进行交互和合作的智能体问题,并通过学习队友行为的表示来适应各种队友行为。在《星际争霸 II》任务的实证评估中,POAM 相对于基准方法提高了协作任务的回报,并实现了对未见过队友的分布外泛化。
Apr, 2024
在动态多代理团队中,定义和衡量信任是非常重要的,特别是在国防和安全领域。我们关注的是如何定义目标和价值,以便能够以可解释的方式定义 ' 信任 ',并且人机皆可使用。我们提出了一套可以被人类或机器人团队成员理解的度量标准来定义人机团队之间的信任,并考虑了一个可以演示 ' 满意信任 ' 概念的实验。
Sep, 2023
研究团队结构在群体学习中的影响,结果显示,某些团队结构帮助代理程序学习特定角色,从而获得更有利的全局结果;然而,大型团队创建的信用分配挑战降低了协调性,导致大型团队表现不如小型团队。
Jun, 2023
研究表明,当涉及到风险元素和评估人类和 AI 代理能力的探索利用过程时,人工智能和人类在小组决策方面具有互补技能。本文面向一组带有缺陷的 AI 代理人,向人类团队提交一系列智力问题,以评估团队成员和可用 AI 代理人的相对专业知识,评估不同行动的风险并通过达成共识来最大化整体回报,并提出了人工智能 - 人类团队决策的模型。研究验证了在不确定情况下的人工智能团队和人类行为预测中的前景理论、影响动态和贝叶斯学习的社会认知构建的价值。
Jan, 2022
提出一种基于预训练的 RL 策略库和规则策略的人类无模型自适应代理架构,通过一种新的相似性度量方法推断人类策略并选择最具互补性的策略,以此最大化团队在人类机器协作中的总体表现。
Mar, 2021