模型准确性和解释透明度如何影响用户信任
本文研究了可解释人工智能模型对用户行为和性能的影响,在一项对说明性活动识别系统的控制用户研究中发现,低真实性的解释与准确的解释和没有解释的系统相比,会显着降低用户的性能和协议。研究结果表明,精确而易理解的解释至关重要,而糟糕的解释有时比没有解释更糟。
May, 2020
通过两项用户实验,本研究旨在提供实证证据,以解决机器学习算法的性能和可解释性之间的权衡问题,并发现其在最终用户的感知中的权衡程度相对较低,其取决于数据复杂性等情况,并根据第二项实验的结果,也发现了可解释性人工智能的增强手段是提高解释性的一种途径,但解释的类型对最终用户的印象起着至关重要的作用。
Jun, 2022
本文说明在 AI 经济和社会领域中,快速发展的 AI 技术在很多方面已经超越人类专家。但由于错误率、偏见、噪声干扰等因素,AI 系统的应用却面临诸多挑战。为应对这种问题,出现了很多政府和监管部门针对具有准确性和健壮性的可信赖、道德的 AI 技术的监管机制。其中,说明性的 AI 技术则被广泛应用。本文从几方面介绍了这种技术在高风险可信赖 AI 系统的全生命周期中的应用。
Dec, 2022
本文通过在金融、医疗保健、大学招生和美国司法系统等四个领域的实际数据中审计了不同保护子组的解释质量,发现不同子组的近似质量显着不同,而解释深度学习模型的近似质量差异存在着公平性挑战,需要进一步解决。
May, 2022
通过一项关于程序生成解释的实证研究,我们发现不同类型的解释如何影响人们对机器学习系统的公平判断,其中某些解释可增强人们对算法公正性的信心,但也有部分解释会被认为是不公平的,此外,不同类型的解释也能更有效地揭示不同的公平问题,因此我们讨论了提供个性化和自适应的解释来支持机器学习系统的公平判断。
Jan, 2019
研究了基于不同特征的人工智能辅助决策场景下,人类对人工智能的信任度与信任度校正,以及人类与人工智能协同工作的影响因素。结果表明,人类信任度的校正能够通过特定的置信度得到有效提高,尽管人类的专业独特知识对于决策的最终结果有良好的辅助作用,但同时也存在着使用本地解释会出现的问题。因此,我们需要探索新的可信度解释方法来更好地衡量和校正人类对人工智能的信任度。
Jan, 2020
机器学习模型解释学(即可解释性 AI)的研究与深度人工神经网络同步呈指数增长,但传统的信任和解释却太狭隘,导致研究社区被误导。该研究提出了一种实用的解决方案,建议研究人员关注机器学习解释的实用性而非信任,提出五种广泛的用例,并为每种情况描述可依靠客观经验测量和可证伪假设的伪实验。该实验严谨的处理方法将对 XAI 领域的科学知识的进一步贡献是必要的。
Sep, 2020
使用真实数据集进行对比和评估,在控制组、具有 AI 预测(未解释),以及具有解释的 AI 预测三组中比较和评估了人类决策的客观准确性。然后发现提供任何形式的 AI 预测都倾向于提高用户的决策准确性,但没有确凿的证据表明解释性 AI 具有实质性影响。因此,我们的研究结果表明解释性 AI 在某些情况下提供的 “何以解释” 的信息可能无助于用户的决策,需要进一步的研究来了解如何将解释性 AI 集成到实际系统中。
Jun, 2020
研究了如何使用深度学习和现有工具来创建和检测欺骗性解释,发现欺骗性解释可以骗过人类,但可以使用机器学习方法检测,即使缺乏领域知识,也可以以无监督的方式推断解释的不一致性。
Jan, 2020