人们是否在认知上与 AI 互动?AI 辅助对附带学习的影响
通过对已有的案例进行分析,本文提出了交互式人工智能决策辅助系统的设计,旨在通过学习人类的选择来决定何时提供算法支持,从而提高决策的准确性和可靠性。作者在美国刑事司法系统的前期释放审判方面进行了大规模实验,并发现交互式辅助系统能够在必要的时候提供准确的建议,与固定的非交互式系统相比较,可以显著提高人类的决策水平。同时,交互式辅助系统还具有促进人类学习、保护人类决策者补充优势、促进对建议的更积极响应等优点。
Sep, 2022
通过对智能辅导系统生成解释进行个性化处理,针对具有认知需求和勤奋度水平较低的学生,旨在增加这些学生对解释的参与度以促进学习,在用户研究中发现,该个性化处理显著增加目标用户与提示解释的互动、理解程度和学习效果,因此,该研究为个性化 AI 解释在学习等认知要求较高的任务中提供了有价值的见解。
Mar, 2024
此研究探讨了决策者对于任务预测和解释的一些直觉,发现了三种类型的直觉:关于任务结果、特征和 AI 限制。此外,该研究还通过两种类型的解释,探索了决策者如何运用自己的直觉来决定是否应该依赖 AI 预测,并发现了三条决策者运用自己直觉的路径。研究表明,AI 解释并不能总是提高决策者的决策效果并可能提高其对 AI 的过度依赖,但使用基于示例的解释则可能有助于完善人工智能的表现。
Jan, 2023
考虑到人对人工智能建议的忽视以及人工智能在最相关时刻有选择性地提供建议的需要,本文提出了一个顺序决策模型,该模型考虑到人的依附水平并引入了一个推迟选项,以便机器能够暂时不提供建议,并提供了能够学习最佳建议政策并仅在关键时间点提供建议的学习算法。与通用强化学习算法相比,我们的专门化学习算法不仅具有更好的理论收敛性能,而且表现出强大的实证性能。
Oct, 2023
本文探讨了人类和人工智能决策团队的过度依赖现象,提出了一种基于成本效益框架的策略模型来平衡 AI 解释带来的成本和效益,证明了在某些情况下 AI 解释可降低过度依赖。
Dec, 2022
这篇论文通过对 Explainable AI 领域的研究进行统计元分析,得出了 Explainable AI 对于用户决策性能有积极的统计效应,但是并未表明解释对用户的决策性能产生了任何影响,有利于今后研究基于 AI 的非人类决策中人类因素的影响。
May, 2022
基于数据驱动算法的人工智能在当今社会中已普遍应用,但在许多情况下,尤其是当风险较高时,人类仍然作出最终决策。本研究引入了一种新的方法框架,可用于在无额外假设的情况下实验性地回答这个问题。我们采用标准分类指标来衡量决策者做出正确决策的能力,通过单盲实验设计随机对案例进行人工智能生成的建议,并由人类作出最终决策,我们比较了三种可选的决策系统的表现:单独人类、人类辅助人工智能和单独人工智能。对我们自己进行的随机对照试验中的数据应用了提出的方法论,发现人工智能建议并没有提高法官决定是否强制缴纳保释金的分类准确性。分析还表明,单独人工智能的决策通常比人类决策(无论是否辅助人工智能)表现更差。最后,相比白人被捕者,在对非白人被捕者的针对性保释方面,人工智能建议往往不必要地更频繁地强制缴纳保释金。
Mar, 2024
通过一项前后实验,我们测试了模仿人类驾驶专家指令的人工智能教练解释性沟通对驾驶性能、认知负荷、信心、专业知识和观测学习背景下的信任度的影响。结果表明,人工智能驾驶教练对新手教授性能驾驶技能非常有用,并且信息类型和呈现方式对驾驶表现有影响,需要倾向于设计高效、适合感官的解释性沟通以指导学习过程。
Jan, 2024