在与 AI 搭档做出复杂决策时的启发式和偏见作用
利用认知科学的知识建立数学模型并提供了一个普遍的框架,用于理解认知偏差和人工智能精度之间的相互作用,特别是锚定偏差,通过一项有效的时间分配策略,成功提高了人工智能的协作性能。
Oct, 2020
探讨了使用 AI 辅助决策时,人工智能的预测性能与偏差如何对人类决策产生影响的复杂动态,并通过大规模用户研究发现,高性能的模型显著提高了人类在混合环境中的表现,但有些模型削弱了混合偏见,有些则加重了混合偏见。这些研究结果表明,预先评估这些复杂动态对于部署人工智能具有明确的必要性。
Feb, 2022
基于数据驱动算法的人工智能在当今社会中已普遍应用,但在许多情况下,尤其是当风险较高时,人类仍然作出最终决策。本研究引入了一种新的方法框架,可用于在无额外假设的情况下实验性地回答这个问题。我们采用标准分类指标来衡量决策者做出正确决策的能力,通过单盲实验设计随机对案例进行人工智能生成的建议,并由人类作出最终决策,我们比较了三种可选的决策系统的表现:单独人类、人类辅助人工智能和单独人工智能。对我们自己进行的随机对照试验中的数据应用了提出的方法论,发现人工智能建议并没有提高法官决定是否强制缴纳保释金的分类准确性。分析还表明,单独人工智能的决策通常比人类决策(无论是否辅助人工智能)表现更差。最后,相比白人被捕者,在对非白人被捕者的针对性保释方面,人工智能建议往往不必要地更频繁地强制缴纳保释金。
Mar, 2024
本文主张人工智能系统需要模拟、理解、甚至复制人类的认知偏差,在人机协作中扮演更加重要的角色,并提出了关于人类认知偏差和人工智能之间相互作用的研究议程及三个感兴趣的广泛领域,并为具有更好对人类偏见的人工智能系统的设计方向提出了研究方向。
Oct, 2022
信息系统经常被设计为利用锚定偏误的负面影响来影响个人的决策(例如通过操纵购买决策)。最近人工智能和可解释人工智能解释其决策的进展为减轻有偏见的决策开辟了新机会。迄今为止,这些技术进步克服锚定偏误的潜力仍然不清楚。为此,我们在购买决策背景下进行了两个在线实验,共有 N=390 名参与者,以研究人工智能和可解释人工智能决策支持对锚定偏误的影响。我们的结果表明,人工智能单独和与可解释人工智能的结合有助于减轻锚定偏误的负面影响。最终,我们的发现对于人工智能和可解释人工智能决策支持和信息系统的设计以克服认知偏见具有影响。
May, 2024
研究表明,当涉及到风险元素和评估人类和 AI 代理能力的探索利用过程时,人工智能和人类在小组决策方面具有互补技能。本文面向一组带有缺陷的 AI 代理人,向人类团队提交一系列智力问题,以评估团队成员和可用 AI 代理人的相对专业知识,评估不同行动的风险并通过达成共识来最大化整体回报,并提出了人工智能 - 人类团队决策的模型。研究验证了在不确定情况下的人工智能团队和人类行为预测中的前景理论、影响动态和贝叶斯学习的社会认知构建的价值。
Jan, 2022
我们通过一个试验研究来衡量机器推荐是否可以减少人类在可视化任务中的感知偏差。我们特别研究了 “下拉” 效应,即人们对直线的平均位置进行低估,在线图中估计数据点的整体平均值任务。这些线图可以用来显示例如 12 个月的温度或降水情况。通过六名参与者的实验估计整体平均值,并比较了有无人工智能助手的情况。实验结果显示,在整体任务中,有人工智能助手的参与者比没有助手的参与者更快。虽然 “下拉” 偏差减小,但人工智能助手的效果在统计上没有显著差异。同时,人工智能响应的延迟对人类的决策准确性也没有显著影响。我们讨论了初步结果对后续研究的影响。
Oct, 2023
通过基于在线游戏的实验,研究了使用不同 DSS 特征对人类反应的影响,显示参与者倾向于根据 DSS 建议打分,表现与游戏难度和 DSS 准确性有关,但他们的满意度并不完全与准确性相关。
Mar, 2022
研究了用户与三个模拟算法模型的交互,发现较低水平的用户虽然能从 AI 建议中受益,但是他们的决策水平却没能达到 AI 的精度,高水平用户则通常能辨别何时应该遵循 AI 建议并保持或提高其性能,而中等水平者则最不稳定,AI 建议会对其性能产生帮助或伤害,此外,用户对 AI 性能的感知也对决策的精度影响非常大。该研究提供了关于人工智能协作相关复杂因素的见解,并提出了如何开发以人为本的人工智能算法以辅助用户在决策任务中的建议。
Aug, 2022