影响临床决策中人工智能协作采纳的因素
研究了人工智能辅助下的人类决策制定,结合超过 100 篇论文总结了该领域的三个重要方面,即决策任务、AI 模型和 AI 辅助元素以及评估指标并提出了未来研究建议,强调建立共同框架以促进人工智能和人机交互社区协作,形成推广的科学知识。
Dec, 2021
本文探讨了 AI 技术在人类辅助诊断中的应用以及如何设计合适的工作流程来整合人与 AI 的协同工作,通过开展用户研究,概述了 AI 呈现时间对人 - AI 团队性能和协议的影响,总结了在人 - AI 协作过程中遇到的问题以及 AI 工具开发中需考虑的事项。
May, 2022
研究表明,当涉及到风险元素和评估人类和 AI 代理能力的探索利用过程时,人工智能和人类在小组决策方面具有互补技能。本文面向一组带有缺陷的 AI 代理人,向人类团队提交一系列智力问题,以评估团队成员和可用 AI 代理人的相对专业知识,评估不同行动的风险并通过达成共识来最大化整体回报,并提出了人工智能 - 人类团队决策的模型。研究验证了在不确定情况下的人工智能团队和人类行为预测中的前景理论、影响动态和贝叶斯学习的社会认知构建的价值。
Jan, 2022
这篇论文系统地介绍了人工智能与人类协作时可能出现的观察、解释和行动上的冲突,包括其潜在风险、测量方法、影响因素,并强调了这是一个正在崛起的风险领域,需要与传统的故障和失效分析区分开来。
May, 2023
研究了用户与三个模拟算法模型的交互,发现较低水平的用户虽然能从 AI 建议中受益,但是他们的决策水平却没能达到 AI 的精度,高水平用户则通常能辨别何时应该遵循 AI 建议并保持或提高其性能,而中等水平者则最不稳定,AI 建议会对其性能产生帮助或伤害,此外,用户对 AI 性能的感知也对决策的精度影响非常大。该研究提供了关于人工智能协作相关复杂因素的见解,并提出了如何开发以人为本的人工智能算法以辅助用户在决策任务中的建议。
Aug, 2022
探讨了使用 AI 辅助决策时,人工智能的预测性能与偏差如何对人类决策产生影响的复杂动态,并通过大规模用户研究发现,高性能的模型显著提高了人类在混合环境中的表现,但有些模型削弱了混合偏见,有些则加重了混合偏见。这些研究结果表明,预先评估这些复杂动态对于部署人工智能具有明确的必要性。
Feb, 2022
人工智能在决策支持系统中的应用主要集中在技术进步方面,忽视了算法输出与人类期望的一致性。为了解决这个问题,可解释的人工智能提倡更加以人为中心的发展。为了更好地理解人与人工智能的交互,我们通过对 105 篇选定文章进行系统综述,提出了一种交互模式分类系统,以深入研究不同人机交互方式。通过对现有研究的分析发现,现有的交互方式主要是简单的合作模式,对于真正的交互功能的支持相对较少。我们的分类系统将有助于理解当前决策环境中人与人工智能的交互方式,并促进交互设计的有意选择。
Oct, 2023
本文讨论了人工智能在医疗领域中的应用,特别是在医学图像分析中的最新进展、现有标准以及应用人工智能所需考虑的伦理问题和最佳实践。我们探讨了人工智能的技术挑战和伦理挑战,以及在医院和公共组织中部署人工智能的影响和关键技术措施。最后,我们提出了未来解决人工智能在医疗应用中的伦理挑战的建议和方向。
Apr, 2023
人工智能和人类协作的真正潜力在于利用人类和人工智能的互补能力,实现超越个体人工智能或人类的联合绩效,即实现互补团队绩效 (CTP)。本研究通过 100 位参与者的实验展示了学习与适当依赖之间的关系,为分析依赖和有效设计人工智能决策提供了基础概念。
Oct, 2023