委派博弈中的合作与控制
在人工智能或自主智能体与人类组成的混合团队中,通过观察团队表现,我们的框架提供了一个经理模型,用于准确识别何时授权团队成员执行动作,而不限制代理机器人的环境模型,结果显示经理模型在不同环境表示下的代理团队中取得了显著的优势。
Sep, 2023
人类和自主系统作为混合团队操作时,通过引入 AI 经理(通过强化学习学习团队的行为模型),在最大程度提高团队的综合性能的同时,最大限度减少 AI 经理介入的频率。
Feb, 2024
主要研究二进制状态的公共预测算法设计和决策委托规则优化,在代理与委托者之间存在信息不对称的情况下,发现委托决策只有在委托者观察到代理者的信息时会做出相同二进制决策时才是最优,提高算法预测的信息量并不一定是最优策略,相关算法限制和人机合作的共同偏好不一致会严重影响决策质量。
Feb, 2024
本研究通过实验研究 AI 算法在双重委托代理问题的双重合同模型中的行为,发现 AI 算法可以自主学会设计可以激励合规的合同,而在合同中,一方可以采取勾结或竞争等多态行为,而且欺骗行为似乎并不存在于制定的合同中。
Mar, 2023
在一项 196 名参与者的实验研究中,我们发现,无论人类是否意识到辅助作业的人工智能模型,通过代理任务来协同完成工作可以提高任务的表现和满意度,同时提高自我效能感,这为 AI 担负更多的管理责任是人 - AI 协作的有效形式提供了初步证据。
Mar, 2023
AI 对齐通常被认为是设计者和人工智能代理之间的互动,在这个互动中,设计者试图确保代理的行为与其目的保持一致,风险仅因设计者意图的效用函数与代理的内部效用函数之间的无意对齐冲突而产生。然而,我们认为,随着大型语言模型(LLMs)的出现,其中通常进行预训练,这种解释并没有捕捉到人工智能安全的关键因素,因为在现实世界中,设计者和代理之间并不存在一对一的对应,许多人工智能代理和人类具有异质的价值观,因此,AI 安全具有经济学上的一面,而且原则代理问题很可能出现。
Jul, 2023
在考虑到人工智能的自主行动和增强人类活动的情况下,本文从人工智能和人类哪一方出现失误的因素(例如感知)入手,研究了人工智能辅助的情况下如何做出正确的决策,利用强化学习模型提高机器智能,从而提高团队绩效。
Mar, 2023
人们更青睐于人机交互的 “机器协助” 模式,而不是完全的人工智能自动控制模式。其中,信任是与人类最佳人机委派偏好相关性最高的因素。
Feb, 2019