人工智能协作代理之间的委托优化
人类和自主系统作为混合团队操作时,通过引入 AI 经理(通过强化学习学习团队的行为模型),在最大程度提高团队的综合性能的同时,最大限度减少 AI 经理介入的频率。
Feb, 2024
通过使用一种标准的强化学习方案以及经理人的学习,我们提出了一种能够改善混合团队(即人类与人工智能系统共同工作的团队)性能的方法,并展示了这个经理人在多个格子环境下的最优表现。
Mar, 2024
在考虑到人工智能的自主行动和增强人类活动的情况下,本文从人工智能和人类哪一方出现失误的因素(例如感知)入手,研究了人工智能辅助的情况下如何做出正确的决策,利用强化学习模型提高机器智能,从而提高团队绩效。
Mar, 2023
在一项 196 名参与者的实验研究中,我们发现,无论人类是否意识到辅助作业的人工智能模型,通过代理任务来协同完成工作可以提高任务的表现和满意度,同时提高自我效能感,这为 AI 担负更多的管理责任是人 - AI 协作的有效形式提供了初步证据。
Mar, 2023
人们更青睐于人机交互的 “机器协助” 模式,而不是完全的人工智能自动控制模式。其中,信任是与人类最佳人机委派偏好相关性最高的因素。
Feb, 2019
通过提供上下文信息,研究人员发现可以显著提高人工智能团队和人类之间的协作性,同时也改变了人们对于委派任务的行为方式,为设计更有效的协作系统提供了可行的见解。
Jan, 2024
本文中,我们正式分析了代理人协作中的控制问题、合作问题、对齐问题和能力问题,以及这些问题对委托人利益的影响,并展示了如何通过有限观察来估计这些指标,并为设计更协调和合作的 AI 系统提供帮助。
Feb, 2024
研究表明,当涉及到风险元素和评估人类和 AI 代理能力的探索利用过程时,人工智能和人类在小组决策方面具有互补技能。本文面向一组带有缺陷的 AI 代理人,向人类团队提交一系列智力问题,以评估团队成员和可用 AI 代理人的相对专业知识,评估不同行动的风险并通过达成共识来最大化整体回报,并提出了人工智能 - 人类团队决策的模型。研究验证了在不确定情况下的人工智能团队和人类行为预测中的前景理论、影响动态和贝叶斯学习的社会认知构建的价值。
Jan, 2022
该研究论文探讨了如何通过条件委托来实现人工智能和人类的有效合作,通过进行内容审查等测试实验表明有该方法有提高模型性能的潜力,并研究了人工智能解释等因素对该方法的影响。
Apr, 2022