关于适当信任的定义及其相关工具
这篇论文通过系统综述研究了人工智能系统中适当信任的建立、度量方式、使用的任务类型以及相关挑战,并提出了一种基于信仰、意图和行为的映射方法,总结了当前趋势、潜在差距和未来工作的研究机会,以推进我们对适当信任的复杂概念在人工智能交互中的理解。
Nov, 2023
人工智能的迅猛发展需要开发者和设计师注重人和机器的合作。通过理解认知心理学的发现,确定了四个构成元素,即感知、语义、意图和用户与上下文,以设计有效的解释,如通过将文本和视觉、可能性和实例、意向交流融合,实现了计算食品卡路里的例子,并建议在解释生成和交流之间增加一个额外的步骤,以确定解释的效力。
Oct, 2022
通过文献调研和元分析,我们建议采用适当的信任作为衡量主观评价标准结果的标准,并提出了一个解释质量方面的模型,其中类似定义的标准被分组,并与三个识别出的质量方面相关联:模型、解释和用户。最后我们提出了一个包含四个常用标准(群)的模型,涵盖了解释质量的所有方面:性能、适当的信任、解释满意度和忠实度。该模型可以作为比较评估的图表,以创建更具可推广性的解释质量研究。
Mar, 2022
本研究提出了适当性依赖度 (AoR) 作为量化的二维度量概念,通过分析提供 AI 建议的解释对适当依赖度的影响进行实验,为分析依赖行为和 AI 建议者的有目的设计提供了基本概念。
Feb, 2023
对用户信任、影响因素和测量方法进行的 23 个实证研究的综述确认了定义信任的多种方法和用户特征对 AI 启用系统中的信任产生的影响等主题,从而为未来技术和设计策略、研究和举措提供了洞察。
Apr, 2023
研究表明,在机器学习中,准确度比可解释性更重要,添加解释可能会损害用户信任,同时高度真实的解释不能欺骗用户的信任,用户的信任感与其实际表现不符。
Jul, 2019
该研究针对 AI 辅助决策中人类决策者何时应该信任 AI,何时应该信任自己的问题,提出了基于任务实例级别的双方正确概率计算及三种信任校准策略,并进行了两项初步研究和一项比较实验,结果表明该方案的效果显著提高了人类对 AI 的适当信任,为更人性化的 AI 决策提供了实用意义。
Jan, 2023
本文提出了 “描述性解释” 和 “说服性解释” 的区别,讨论了功能解释与认知功能和用户偏好可能相关的推理,并提出了两个研究方向来消除认知功能和解释模型之间的歧义,保持准确性和可解释性之间的权衡控制。
Nov, 2017
通过建立 MATCH 模型,本文探讨了如何在人工智能系统中通过可信度提示进行信任建立,强调透明度和互动等技术的重要性,提出了技术设计者需要意识到用户认知过程和其潜在局限性以选择可靠的可信度提示,并定义适当的提示标准及开销,鼓励相关行业规范技术应用和预防恶意行为。
Apr, 2022