人工智能的信任与其在人工智能技术接受中的角色
人工智能在我们的日常生活中越来越广泛地使用,尤其在各种应用、服务和产品中。因此,从用户角度来看,对人工智能的信任或不信任变得非常重要。这篇论文通过系统文献综述,探讨了当前人工智能领域的信任概念,并研究了不同类型的人机交互中的信任以及其对不同领域的技术接受度的影响。此外,还提出了技术和非技术的可信度指标以及一些可信度衡量标准,并分析了一些人工智能中的主要破坏因素和信任建立因素,并为实现可信度从而实现人工智能的可靠过渡提出了一些未来的方向和可能的解决方案。
Mar, 2024
对用户信任、影响因素和测量方法进行的 23 个实证研究的综述确认了定义信任的多种方法和用户特征对 AI 启用系统中的信任产生的影响等主题,从而为未来技术和设计策略、研究和举措提供了洞察。
Apr, 2023
这篇论文针对机器人、虚拟角色、智能车辆、决策帮助等各类 AI 系统中关于信任模型的应用和测量方法缺乏标准化的现状进行了概述和分析。作者提出了一些系统的研究目标,并为当前文献汇总的优点和缺点提供了解决方案和研究议程。
Apr, 2022
本研究提供了一种系统的方法来将社会科学信任概念与建立在人工智能服务和产品上使用的机器学习技术相关联,探讨了四种类别的机器学习技术 (公平性、可解释性、可审计性和安全性) 如何影响人们的信任,并介绍了在 AI 系统生命周期的不同阶段建立信任的技术需求。
Nov, 2019
本文通过对一款实际计算机视觉应用进行的定性案例研究,提出了关于信任人工智能的全面而细致的理解。我们发现,领域知识和情境是评估和决策的重要因素,用户普遍认为该应用程序值得信任,但进行了确认行为,对于某些高风险情境,则决定不采用该应用程序。
May, 2023
这篇论文通过系统综述研究了人工智能系统中适当信任的建立、度量方式、使用的任务类型以及相关挑战,并提出了一种基于信仰、意图和行为的映射方法,总结了当前趋势、潜在差距和未来工作的研究机会,以推进我们对适当信任的复杂概念在人工智能交互中的理解。
Nov, 2023
本文从计算的角度综述了 AI 可信赖性的最新技术,其中包含了六个方面:安全、非歧视与公平、可解释性、隐私、责任与审计能力以及环境福祉,旨在帮助读者理解可信赖 AI 的最新技术以及现实系统的应用。
Jul, 2021
研究探讨人工智能的信任问题,着眼于用户的脆弱性和预测人工智能模型决策影响的能力,并引入‘契约性信任’和‘信任价值’的概念,探讨了在线学习和可解释的人工智能与对信任的影响。
Oct, 2020
本研究探讨影响人工智能接受意向的因素及其形成过程,结果发现人工智能和 ICT 经验对 AI 接受意向有直接和间接影响,期望是提高了接受意向的关键。因此,有必要管理用户体验并提供详细的信息以帮助潜在用户了解 AI 技术优势并制定现实的期望。
Jun, 2023
整理了有关人工智能信任和人工智能的可信度的文献概述,强调了需要更明确区分这些概念并获取更多实证证据以了解人们信任行为的要素。指出对人工智能的信任不仅涉及对系统本身的依赖,还包括对人工智能开发者的信任。伦理原则如可解释性和透明性通常被认为能提高用户的信任,但关于这些特点如何实际影响用户对系统可信度认知的实证证据并不丰富或不太明确。应将人工智能系统视为社会技术系统,设计、开发、部署和使用系统的人员与系统本身一样重要,才能确定系统是否值得信任。忽视这些细微差别,人工智能的信任和可信度有可能成为针对任何人工智能系统的模糊术语。
Sep, 2023