利用解释桥接人工智能和人类
本研究通过适应性因果图的方式,探讨了人机共存下机器学习模型解释与人类理解的相互作用。研究发现,提高人类针对模型决策边界的理解是可能的,但提高人类对任务决策边界或模型错误的理解需要结合人类主观性经验去实现。最后,本研究提出了一些可行的措施,以及未来机器学习模型解释研究的方向。
Feb, 2022
研究探讨了通过对模拟响应、验证建议响应、确定建议响应的正确性并观察其输入变化等三项特定任务,来解释可解释的 AI 的互动可能。结果表明,特定的正则化可以用于优化可解释性,而一些共同点和设计原则也可能存在于解释的系统之间。我们的结果表明,认知块比变量重复更影响表现,并且这些趋势在任务和领域中保持一致。
Jan, 2019
使用真实数据集进行对比和评估,在控制组、具有 AI 预测(未解释),以及具有解释的 AI 预测三组中比较和评估了人类决策的客观准确性。然后发现提供任何形式的 AI 预测都倾向于提高用户的决策准确性,但没有确凿的证据表明解释性 AI 具有实质性影响。因此,我们的研究结果表明解释性 AI 在某些情况下提供的 “何以解释” 的信息可能无助于用户的决策,需要进一步的研究来了解如何将解释性 AI 集成到实际系统中。
Jun, 2020
本文提出了 “描述性解释” 和 “说服性解释” 的区别,讨论了功能解释与认知功能和用户偏好可能相关的推理,并提出了两个研究方向来消除认知功能和解释模型之间的歧义,保持准确性和可解释性之间的权衡控制。
Nov, 2017
本文提供了一个实用的评估框架,用于可解释机器学习模型对于临床决策支持的贡献。研究揭示了 ML 解释模型的更加细致的作用,以及将其实用地嵌入临床背景的方法。 该研究发现,尽管医疗保健专业人员普遍对解释持有积极态度,但对于一定比例的参与者来说,存在负面影响,如确认偏差、过度依赖模型和增加与模型的交互的努力。此外,标准的解释模型显示出支持对模型限制进行关键理解的能力有限。但是,我们发现了具有新的显著积极影响的效果,重新定位了临床背景下解释的作用:包括减少自动化偏差、解决模糊的临床案例(医疗保健专业人员对其决策不确定的情况)并支持获取新领域知识的经验不足的医疗保健专业人员。
Apr, 2022