一种基于心理模型的信任理论
这篇论文针对机器人、虚拟角色、智能车辆、决策帮助等各类 AI 系统中关于信任模型的应用和测量方法缺乏标准化的现状进行了概述和分析。作者提出了一些系统的研究目标,并为当前文献汇总的优点和缺点提供了解决方案和研究议程。
Apr, 2022
该论文的工作基于当前人工智能用户信任话语,旨在通过使用信任作为促进当前技术采用(或适用)的工具,提出一种新颖的人机交互方法。作者提出了一个框架(HCTFrame),以指导非专家解锁用户对 AI 设计的信任的全部潜力。经过三个文献综述发现的数据三角化得出的结果揭示了计算机科学和人工智能话语中有关用户信任的一些误解,并进行了三个案例研究评估了心理测量量表的有效性,以映射潜在用户的信任破裂和关注点。该工作主要对抗设计技术中心易受攻击的交互的趋势,这最终可能导致更多现实和感知的信任违规。提出的框架可用于指导系统设计者,如何映射和定义用户信任,以及 AI 系统设计的社会伦理和组织需求和特征。它还可以指导 AI 系统设计者如何开发原型并使解决方案实现用户信任要求。该文章最后提供了一些用户研究工具,可用于测量用户的信任意向和行为,以评估所提出的解决方案。
May, 2023
研究探讨人工智能的信任问题,着眼于用户的脆弱性和预测人工智能模型决策影响的能力,并引入‘契约性信任’和‘信任价值’的概念,探讨了在线学习和可解释的人工智能与对信任的影响。
Oct, 2020
通过对该领域的文献进行梳理和分类,可以为未来的研究者和智能系统从业人员提供洞见和方向,以人为中心,信息为重点的角度探究人类对智能代理的信任感,并决定是否接受该代理的推荐或行动建议所需的额外信息。
May, 2022
本文探讨人类与机器人的协作中,心理模型对信任与决策的影响,并通过一项在线测试发现,人们对机器人的能力和意图的估计与总体自我报告信任强相关。但要做出正确的决策,人们需要(并使用)多面向的心理模型,而不是仅仅校准总体信任水平。
Sep, 2019
人工智能系统的可靠性和决策呈现方式对用户建立 AI 系统的心理模型至关重要,现代自然语言处理系统常常不可靠,导致系统信任被削弱,研究发现用户对错误和不准确的信心估计会对信任和性能造成损害,并且这种损害缓慢恢复,这些发现凸显了用户面向的人工智能应用中测定是否信任该系统时校准的重要性。
Oct, 2023
人工智能在我们的日常生活中越来越广泛地使用,尤其在各种应用、服务和产品中。因此,从用户角度来看,对人工智能的信任或不信任变得非常重要。这篇论文通过系统文献综述,探讨了当前人工智能领域的信任概念,并研究了不同类型的人机交互中的信任以及其对不同领域的技术接受度的影响。此外,还提出了技术和非技术的可信度指标以及一些可信度衡量标准,并分析了一些人工智能中的主要破坏因素和信任建立因素,并为实现可信度从而实现人工智能的可靠过渡提出了一些未来的方向和可能的解决方案。
Mar, 2024
本论文探讨了信任对使用人工智能技术意图的影响,结果显示信任通过感知有用性和使用者对助手的态度影响了使用意图,功能相关的信任对使用意图的影响大于人类的信任,在 AI 相关应用中,信任对技术的接受起着重要的作用,并提供了可用于未来研究的基于多维度的信任度量方法。
Mar, 2022
对用户信任、影响因素和测量方法进行的 23 个实证研究的综述确认了定义信任的多种方法和用户特征对 AI 启用系统中的信任产生的影响等主题,从而为未来技术和设计策略、研究和举措提供了洞察。
Apr, 2023