人类和自主系统作为混合团队操作时,通过引入 AI 经理(通过强化学习学习团队的行为模型),在最大程度提高团队的综合性能的同时,最大限度减少 AI 经理介入的频率。
Feb, 2024
在人工智能或自主智能体与人类组成的混合团队中,通过观察团队表现,我们的框架提供了一个经理模型,用于准确识别何时授权团队成员执行动作,而不限制代理机器人的环境模型,结果显示经理模型在不同环境表示下的代理团队中取得了显著的优势。
Sep, 2023
在考虑到人工智能的自主行动和增强人类活动的情况下,本文从人工智能和人类哪一方出现失误的因素(例如感知)入手,研究了人工智能辅助的情况下如何做出正确的决策,利用强化学习模型提高机器智能,从而提高团队绩效。
Mar, 2023
研究表明,当涉及到风险元素和评估人类和 AI 代理能力的探索利用过程时,人工智能和人类在小组决策方面具有互补技能。本文面向一组带有缺陷的 AI 代理人,向人类团队提交一系列智力问题,以评估团队成员和可用 AI 代理人的相对专业知识,评估不同行动的风险并通过达成共识来最大化整体回报,并提出了人工智能 - 人类团队决策的模型。研究验证了在不确定情况下的人工智能团队和人类行为预测中的前景理论、影响动态和贝叶斯学习的社会认知构建的价值。
Jan, 2022
研究通过计算建模和优化技术,提升人工智能与人类队伍的协同性能,其中人类和机器智能代理由于环境知识不完整而发挥亚最优能力,并采用在线贝叶斯方法推断人们愿意接受机器的协助,实验结果显示协作方式与团队性能、用户信任和对机器的好感度存在显著关联。
Mar, 2024
在复杂的模拟环境中,研究表明人工智能与人类的合作胜过仅有人类或仅有人工智能代理的情况,并开发出了一种用户界面,使人类有效地协助人工智能代理。
Dec, 2023
探讨了使用 AI 辅助决策时,人工智能的预测性能与偏差如何对人类决策产生影响的复杂动态,并通过大规模用户研究发现,高性能的模型显著提高了人类在混合环境中的表现,但有些模型削弱了混合偏见,有些则加重了混合偏见。这些研究结果表明,预先评估这些复杂动态对于部署人工智能具有明确的必要性。
Feb, 2022
在一项 196 名参与者的实验研究中,我们发现,无论人类是否意识到辅助作业的人工智能模型,通过代理任务来协同完成工作可以提高任务的表现和满意度,同时提高自我效能感,这为 AI 担负更多的管理责任是人 - AI 协作的有效形式提供了初步证据。
本研究在人机合作游戏 Hanabi 中单盲评估了基于规则和基于学习的人工智能代理团队。结果表明,尽管两种团队在比赛得分上没有显著差异,但在案例理解性、信任度和总体偏好等主观评估指标上,人类普遍更喜欢基于规则的人工智能伙伴(SmartBot)而不是最先进的基于学习的人工智能伙伴(Other-Play),这对未来的人工智能设计和加强学习基准测试具有启示作用。
Jul, 2021
研究人工智能系统和人类在同一环境下应怎样理解和相应对方行为,通过认知模型预测双方行为并通过中介控制实现目标的达成。
Apr, 2022