知识生成不确定性演化的信任校准:一项调查
人工智能系统的可靠性和决策呈现方式对用户建立 AI 系统的心理模型至关重要,现代自然语言处理系统常常不可靠,导致系统信任被削弱,研究发现用户对错误和不准确的信心估计会对信任和性能造成损害,并且这种损害缓慢恢复,这些发现凸显了用户面向的人工智能应用中测定是否信任该系统时校准的重要性。
Oct, 2023
对用户信任、影响因素和测量方法进行的 23 个实证研究的综述确认了定义信任的多种方法和用户特征对 AI 启用系统中的信任产生的影响等主题,从而为未来技术和设计策略、研究和举措提供了洞察。
Apr, 2023
针对机器学习模型影响采纳的关键因素之一 —— 信任,本研究提出了一组特征量,可以表征一个实例的复杂程度,并借助元学习框架评估误分类的风险。该框架在提高模型开发的复杂性方面具有潜在的应用前景,同时提供新的模型自我阻抗和解释手段。
Apr, 2023
本文研究了不确定性和可解释性之间的联系,特别是探讨了置信度和解释性之间的关系,发现模型的置信度与我们解释模型的能力有交互作用,并提出了一种简单的实践方法来改善解释结果:调整置信度以提高解释效果。
Jul, 2022
本文通过对一款实际计算机视觉应用进行的定性案例研究,提出了关于信任人工智能的全面而细致的理解。我们发现,领域知识和情境是评估和决策的重要因素,用户普遍认为该应用程序值得信任,但进行了确认行为,对于某些高风险情境,则决定不采用该应用程序。
May, 2023
探讨社会中一些道德问题,介绍了一个基于计算机视觉技术的长期护理解决方案,通过用户调研实现了一个支持准确度和用户信任的水平原型,同时强调了用户参与作为计算机视觉技术发展过程中必不可少的因素。
May, 2019
通过对该领域的文献进行梳理和分类,可以为未来的研究者和智能系统从业人员提供洞见和方向,以人为中心,信息为重点的角度探究人类对智能代理的信任感,并决定是否接受该代理的推荐或行动建议所需的额外信息。
May, 2022
本文提出了一种简单的 Monte Carlo Dropout 算法,可以显式地量化神经网络输出的不确定性,利用此种不确定性可以解释模型复杂现象、如情感识别,此外也可以用于辨别主观标记样本和数据偏差的问题。
Sep, 2019
该论文的工作基于当前人工智能用户信任话语,旨在通过使用信任作为促进当前技术采用(或适用)的工具,提出一种新颖的人机交互方法。作者提出了一个框架(HCTFrame),以指导非专家解锁用户对 AI 设计的信任的全部潜力。经过三个文献综述发现的数据三角化得出的结果揭示了计算机科学和人工智能话语中有关用户信任的一些误解,并进行了三个案例研究评估了心理测量量表的有效性,以映射潜在用户的信任破裂和关注点。该工作主要对抗设计技术中心易受攻击的交互的趋势,这最终可能导致更多现实和感知的信任违规。提出的框架可用于指导系统设计者,如何映射和定义用户信任,以及 AI 系统设计的社会伦理和组织需求和特征。它还可以指导 AI 系统设计者如何开发原型并使解决方案实现用户信任要求。该文章最后提供了一些用户研究工具,可用于测量用户的信任意向和行为,以评估所提出的解决方案。
May, 2023
本文探讨了当前解释性、可理解性和透明度研究中未能充分衡量信任的原因及其实验设计中存在的问题,并提出了三种方法来较好地衡量感知的信任和实际的信任,旨在引发对该主题的讨论、批评和探究。
Aug, 2022