上下文信任
研究探讨人工智能的信任问题,着眼于用户的脆弱性和预测人工智能模型决策影响的能力,并引入‘契约性信任’和‘信任价值’的概念,探讨了在线学习和可解释的人工智能与对信任的影响。
Oct, 2020
通过理解人类认知中心的特点,提出了使用 “上下文重要性和效用(Contextual Importance and Utility method)” 等方法去实现可解释的 AI 决策。
Jan, 2021
这篇论文通过系统综述研究了人工智能系统中适当信任的建立、度量方式、使用的任务类型以及相关挑战,并提出了一种基于信仰、意图和行为的映射方法,总结了当前趋势、潜在差距和未来工作的研究机会,以推进我们对适当信任的复杂概念在人工智能交互中的理解。
Nov, 2023
该论文的工作基于当前人工智能用户信任话语,旨在通过使用信任作为促进当前技术采用(或适用)的工具,提出一种新颖的人机交互方法。作者提出了一个框架(HCTFrame),以指导非专家解锁用户对 AI 设计的信任的全部潜力。经过三个文献综述发现的数据三角化得出的结果揭示了计算机科学和人工智能话语中有关用户信任的一些误解,并进行了三个案例研究评估了心理测量量表的有效性,以映射潜在用户的信任破裂和关注点。该工作主要对抗设计技术中心易受攻击的交互的趋势,这最终可能导致更多现实和感知的信任违规。提出的框架可用于指导系统设计者,如何映射和定义用户信任,以及 AI 系统设计的社会伦理和组织需求和特征。它还可以指导 AI 系统设计者如何开发原型并使解决方案实现用户信任要求。该文章最后提供了一些用户研究工具,可用于测量用户的信任意向和行为,以评估所提出的解决方案。
May, 2023
人工智能的迅猛发展需要开发者和设计师注重人和机器的合作。通过理解认知心理学的发现,确定了四个构成元素,即感知、语义、意图和用户与上下文,以设计有效的解释,如通过将文本和视觉、可能性和实例、意向交流融合,实现了计算食品卡路里的例子,并建议在解释生成和交流之间增加一个额外的步骤,以确定解释的效力。
Oct, 2022
本论文探讨了信任对使用人工智能技术意图的影响,结果显示信任通过感知有用性和使用者对助手的态度影响了使用意图,功能相关的信任对使用意图的影响大于人类的信任,在 AI 相关应用中,信任对技术的接受起着重要的作用,并提供了可用于未来研究的基于多维度的信任度量方法。
Mar, 2022
对用户信任、影响因素和测量方法进行的 23 个实证研究的综述确认了定义信任的多种方法和用户特征对 AI 启用系统中的信任产生的影响等主题,从而为未来技术和设计策略、研究和举措提供了洞察。
Apr, 2023
人工智能在我们的日常生活中越来越广泛地使用,尤其在各种应用、服务和产品中。因此,从用户角度来看,对人工智能的信任或不信任变得非常重要。这篇论文通过系统文献综述,探讨了当前人工智能领域的信任概念,并研究了不同类型的人机交互中的信任以及其对不同领域的技术接受度的影响。此外,还提出了技术和非技术的可信度指标以及一些可信度衡量标准,并分析了一些人工智能中的主要破坏因素和信任建立因素,并为实现可信度从而实现人工智能的可靠过渡提出了一些未来的方向和可能的解决方案。
Mar, 2024
本文提出了一种基于心理模型的信任理论,它不仅能够被用于推断信任,从而提供了一种替代心理或行为信任推断方法,而且还能作为基础用于任何信任感知的决策框架,通过对人类研究的对比,我们发现本文所提出的理论比最常用的信任量表(穆尔量表)更符合人类观察结果。
Jan, 2023