设计值得信赖的人工智能:人机协作框架指导开发
该论文的工作基于当前人工智能用户信任话语,旨在通过使用信任作为促进当前技术采用(或适用)的工具,提出一种新颖的人机交互方法。作者提出了一个框架(HCTFrame),以指导非专家解锁用户对 AI 设计的信任的全部潜力。经过三个文献综述发现的数据三角化得出的结果揭示了计算机科学和人工智能话语中有关用户信任的一些误解,并进行了三个案例研究评估了心理测量量表的有效性,以映射潜在用户的信任破裂和关注点。该工作主要对抗设计技术中心易受攻击的交互的趋势,这最终可能导致更多现实和感知的信任违规。提出的框架可用于指导系统设计者,如何映射和定义用户信任,以及 AI 系统设计的社会伦理和组织需求和特征。它还可以指导 AI 系统设计者如何开发原型并使解决方案实现用户信任要求。该文章最后提供了一些用户研究工具,可用于测量用户的信任意向和行为,以评估所提出的解决方案。
May, 2023
设计一个安全、可信和道德的人工智能可能是实际上不可能的;然而,在考虑安全、可信和道德使用的前提下设计人工智能是可能的,也是在航空航天等安全和关键任务领域中必要的。这篇论文作为入门指南,阐明了这些概念之间微妙的差异,并重点关注人工智能与人类团队在航空航天系统控制中的应用,其中人类可能参与决策过程或不参与。
Nov, 2023
研究旨在提高人工智能系统的可信度和信任度,开发能够适应实际应用场景的人工智能系统,并将人类放在其中心地位,使其能够有效地使用系统,理解输出和解释结果以满足监管委员会的要求。
Jan, 2020
全自动化在关键系统中往往难以实现或不可取,在高风险决策中人工智能团队可以获得更好的结果,为此需要轻量级实验平台以促进人机交互并且适用于此类团队合作的算法进行研究、开发、评估和验证。通过 Cogment 人机团队合作实验平台,我们希望在关键系统和防御环境中促进进一步的人机团队合作研究。
Dec, 2023
本文提出了一种在人性化设计和敏捷开发中建立和维护信任的理论框架,它强调了商业技术的协同创新过程。框架的目的是通过让所有利益相关者参与到项目中来,将人工智能技术与人们一起设计、开发和部署,以创新和改进业务。以医院规划助理为例,展示了该框架在实际应用中的效果。
Sep, 2022
人工智能与人类团队合作是新的设计范式,需要遵循以人为中心的人工智能 (HCAI) 方法。本文提出了人工智能与人类联合认知系统 (HAIJCS) 的概念框架,用于代表并实现人工智能与人类团队合作。
Jul, 2023
人工智能在快速发展,人工智能系统与人类智能的协作,即人工智能协作 (HAI) 团队合作,已成为推动问题解决和决策过程进展的基石。本文调查了大型预训练模型与 HAI 的重要整合,并强调这些模型如何在协作智能方面超越传统方法。研究探讨了 LPtM 在增强人类能力方面的协同潜力,并讨论了此合作在 AI 模型改进、有效团队合作、伦理考虑以及在各个领域的广泛应用中的应用影响。通过这次探索,研究揭示了 LPtM 增强的 HAI 团队合作的变革性影响,为未来研究、政策制定和战略实施提供了洞察,旨在充分发挥这种合作的潜力,造福研究和社会。
Mar, 2024
对用户信任、影响因素和测量方法进行的 23 个实证研究的综述确认了定义信任的多种方法和用户特征对 AI 启用系统中的信任产生的影响等主题,从而为未来技术和设计策略、研究和举措提供了洞察。
Apr, 2023
这篇论文针对机器人、虚拟角色、智能车辆、决策帮助等各类 AI 系统中关于信任模型的应用和测量方法缺乏标准化的现状进行了概述和分析。作者提出了一些系统的研究目标,并为当前文献汇总的优点和缺点提供了解决方案和研究议程。
Apr, 2022
AI 技术的快速发展与伦理维度的深入研究,特别关注于医疗领域,探索透明度、数据管理、人工监督、教育要求以及国际合作等众多方面,呼吁全球统一的 AI 伦理原则和框架,并提出有益的伦理方案以应对新兴挑战。
Aug, 2023