Nicholas Wolczynski, Maytal Saar-Tsechansky, Tong Wang
TL;DR本文研究 AI 辅助决策的团队决策,在考虑决策者面临的协同成本、不完美的算法决策等限制条件下,研发了人工智能团队学习框架和 TeamRules 算法,可提供有针对性的决策建议并在处理协同成本和团队准确性之间的平衡上产生显著的效果
Abstract
Expert decision-makers (DMs) in high-stakes ai-assisted decision-making
(AIaDM) settings receive and reconcile recommendations from AI systems before
making their final decisions. We identify distinct properties of these settings
which are key to developing AIaDM models that effectivel
研究表明,当涉及到风险元素和评估人类和 AI 代理能力的探索利用过程时,人工智能和人类在小组决策方面具有互补技能。本文面向一组带有缺陷的 AI 代理人,向人类团队提交一系列智力问题,以评估团队成员和可用 AI 代理人的相对专业知识,评估不同行动的风险并通过达成共识来最大化整体回报,并提出了人工智能 - 人类团队决策的模型。研究验证了在不确定情况下的人工智能团队和人类行为预测中的前景理论、影响动态和贝叶斯学习的社会认知构建的价值。
研究了用户与三个模拟算法模型的交互,发现较低水平的用户虽然能从 AI 建议中受益,但是他们的决策水平却没能达到 AI 的精度,高水平用户则通常能辨别何时应该遵循 AI 建议并保持或提高其性能,而中等水平者则最不稳定,AI 建议会对其性能产生帮助或伤害,此外,用户对 AI 性能的感知也对决策的精度影响非常大。该研究提供了关于人工智能协作相关复杂因素的见解,并提出了如何开发以人为本的人工智能算法以辅助用户在决策任务中的建议。