社会困境中的合作:多主体,人 - 主体与更多:一项综述调查
该研究的目标是研究协作问题的多个方面,并创新人工智能以解决这些问题,其中包括构建具有协作能力的机器代理程序,构建工具以促进(机器和 / 或人类)代理程序的协作,并以适用于协作问题的见解进行人工智能研究。
Dec, 2020
多智能体学习是一门涉及博弈论、经济学、社会科学和进化生物学等众多学科交叉的主题。本文概述了多智能体学习的基本概念、问题设置和算法,包括增强学习、多智能体序列决策、多智能体合作的挑战,对最近进展进行了全面综述和相关度量评估,并讨论了该领域的开放性挑战,以期激发新的研究方向。
Dec, 2023
本文研究社会困境中人们的合作行为,提出人类天生具有合作的倾向,并建立了第一个能够预测人类合作行为的模型,该模型考虑到人们能够形成联盟来预测社会困境的演化,并根据最乐观的预测来行动。实验结果表明,即使在没有外部控制的情况下,人们也能够在一次性的社会困境中合作。
Jul, 2013
本研究提出了一种通用模型,旨在设计具有社交智能的个体理性学习者的 AI,以实现其与其他类型的代理人的有效合作。该研究重点讨论了合理性、后悔和泛饱和效率对于实现社交智能的影响,并探讨了构建稳健的系统的重要性。
May, 2023
在社会困境中建立 AI 代理能够在个体私利和集体福利间取得平衡,研究人员修改强化学习方法来构建行为明了,好相处,可激怒且宽容的代理,通过理论与实验表明这些代理能在马尔可夫社会困境中维持合作。
Jul, 2017
人工智能代理在现实世界中的部署需要与人类(以及其他异构的 AI 代理)可靠地合作。为了提供成功合作的形式化保证,我们必须对合作伙伴代理的行为做一些合理的假设。这项工作研究了在一个有限重复的、两个玩家的一般化总和矩阵游戏中与一个代理人群合作的问题,通过个体理性学习者的假设和在某个 Pareto 有效均衡策略下高概率实现至少与该策略相同效用,我们证明了这些假设本身不足以保证与目标人群成员的零 - shot 合作。因此,我们考虑了通过先前观察到的人群成员相互作用来学习与这样的人群合作的策略问题,并给出了学习有效合作策略所需样本数量的上限和下限。最重要的是,我们证明了这些界限可以比通过一种 “天真” 的问题简化到模仿学习中产生的界限更强。
Jun, 2024
研究表明,当涉及到风险元素和评估人类和 AI 代理能力的探索利用过程时,人工智能和人类在小组决策方面具有互补技能。本文面向一组带有缺陷的 AI 代理人,向人类团队提交一系列智力问题,以评估团队成员和可用 AI 代理人的相对专业知识,评估不同行动的风险并通过达成共识来最大化整体回报,并提出了人工智能 - 人类团队决策的模型。研究验证了在不确定情况下的人工智能团队和人类行为预测中的前景理论、影响动态和贝叶斯学习的社会认知构建的价值。
Jan, 2022