解释可减少决策中对 AI 系统的过度依赖
此研究探讨了决策者对于任务预测和解释的一些直觉,发现了三种类型的直觉:关于任务结果、特征和 AI 限制。此外,该研究还通过两种类型的解释,探索了决策者如何运用自己的直觉来决定是否应该依赖 AI 预测,并发现了三条决策者运用自己直觉的路径。研究表明,AI 解释并不能总是提高决策者的决策效果并可能提高其对 AI 的过度依赖,但使用基于示例的解释则可能有助于完善人工智能的表现。
Jan, 2023
通过使用显著特征解释和假设性解释来更加分析性地对待人工智能建议,可以降低对人工智能的过度依赖,提高医疗决策过程中的性能和一致性,尤其是在确保人工智能提供正确输出的情况下。
Aug, 2023
研究了基于 AI 解释和分布式公平性之间的关系,发现解释会影响公平感知,从而与人类对 AI 建议的依赖关系发生关联。该研究表明,基于特征的解释并不是改善分布式公正性的可靠机制。
Sep, 2022
人工智能的迅猛发展需要开发者和设计师注重人和机器的合作。通过理解认知心理学的发现,确定了四个构成元素,即感知、语义、意图和用户与上下文,以设计有效的解释,如通过将文本和视觉、可能性和实例、意向交流融合,实现了计算食品卡路里的例子,并建议在解释生成和交流之间增加一个额外的步骤,以确定解释的效力。
Oct, 2022
本文聚焦 AI 辅助决策,在 AI 解释人类决策过程中频繁失败的背景下,提出了一个简单的理论,即解释只有在允许决策者验证其正确性时才有用,我们讨论了更有效的 AI 决策解释方法和人工智能 - 人类决策的协作。
May, 2023
研究人员探讨了 AI 系统推荐错误或不公平的情况下,人工干预的必要性,并提供了关于解释、公平感知、依赖和分布公平性之间关系的理论框架,但文献并没有提供确凿证据证明解释在实践中实现了这种补充关系。
Apr, 2022
研究了基于不同特征的人工智能辅助决策场景下,人类对人工智能的信任度与信任度校正,以及人类与人工智能协同工作的影响因素。结果表明,人类信任度的校正能够通过特定的置信度得到有效提高,尽管人类的专业独特知识对于决策的最终结果有良好的辅助作用,但同时也存在着使用本地解释会出现的问题。因此,我们需要探索新的可信度解释方法来更好地衡量和校正人类对人工智能的信任度。
Jan, 2020
通过用户研究,本研究评估了可解释人工智能在实际场景中对人类决策的改进效果,结果发现虽然解释有助于用户更准确地描述模型,但对于模型选择和反事实模拟这两个任务,并没有找到使用任何显著改进的证据,这表明对基于显著性的解释的实用性和可能的误解需要谨慎对待。
Dec, 2023
我们研究了当一个 AI 系统遇到一项不能完美执行的任务时,用户如何看待其限制,并且提供解释是否有助于用户构建系统能力和限制的适当心理模型。通过控制视觉输入,在视觉问答解释任务中,我们操控 AI 系统的限制:在推理过程中,该系统可以处理全彩色或灰度图像。我们的目标是确定参与者是否能够察觉到该系统的限制。我们假设解释会使有限的 AI 能力对用户更加透明。然而,我们的研究结果显示解释没有这种效果。与其实际表现无关,解释通常会增加用户对系统能力的认知。
Jun, 2024