该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
该研究提出了一种面向终端用户的解释性人工智能框架 EUCA,其中包括 12 种不需要技术知识就可以理解的终端用户友好型解释形式,并进行用户研究来共同设计低保真度原型。
Feb, 2021
本研究介绍了四个新的可解释人工智能技术问题,这些问题围绕设计和评估算法,并呼吁建立基于人类需求的可解释人工智能技术开发研究范式,以保证人工智能在关键任务中的负责任使用。
Aug, 2022
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
通过 EUCA 用户研究,我们系统地理解了最终用户对 XAI 的要求,并确定了用户友好的解释形式和解释目标,它们对直接启发新的 XAI 算法和评估指标具有帮助
Feb, 2023
本文回顾了最近关于可解释 AI(XAI)的技术文献,并认为基于我们当前对该领域的理解,实践中使用 XAI 技术需要考虑特定业务应用程序的利益相关者的具体需求。
Aug, 2021
人们对越来越多的决策由机器完成的需求增加,但黑盒模型的决策推理令人不解,因此需要关注决策推理的清晰度与可解释性,以及如何扩展到反事实思考。
Nov, 2023
本文通过对金融领域中深度学习模型可解释性方法的比较研究,对人工智能和深度学习模型的成功及其在各个行业中的广泛应用进行了讨论,并对可解释性人工智能方法的分类、关注点和挑战进行了综述,并提出了未来方向。
Sep, 2023
通过分析有关 AI 规定和政策的立法进展,本研究讨论了可解释性人工智能(XAI)的技术现状及其对 AI 治理的潜在威胁,指出需要明确、合理的立法和政策以解决 AI 解释能力的问题。
May, 2024
最近的实证研究调查了可解释人工智能对人工智能决策的影响,识别了挑战并提出未来的研究方向。
Dec, 2023