使用形式化方法证明 XAI 神话 -- 初步结果
本研究旨在评估两种流行的可解释人工智能方法在医疗保健背景下解释预测模型的精确度,重点考虑是否产生与应用任务相一致的域适当表示,如何影响临床工作流程以及是否一致性,结果表明目前的技术还有改进的空间。
Jun, 2023
该论文对 50 多篇与机器学习模型解释袭击和公正性度量有关的研究进行了简要综述,并讨论了如何防御攻击和设计稳健的解释方法。该论文提出了现有 XAI(可解释人工智能)不安全因素的列表,并概述了 Adversarial XAI(AdvXAI)的新兴研究方向。
Jun, 2023
阐释可解释的人工智能(XAI)技术应用于复杂模型的机器学习系统中,以增强其透明度与验证,从而取得用户的信任。然而,XAI 在部署上存在局限性,因此透明度和严格验证更适合在获取人工智能系统信任时使用。
Jan, 2023
机器学习模型解释学(即可解释性 AI)的研究与深度人工神经网络同步呈指数增长,但传统的信任和解释却太狭隘,导致研究社区被误导。该研究提出了一种实用的解决方案,建议研究人员关注机器学习解释的实用性而非信任,提出五种广泛的用例,并为每种情况描述可依靠客观经验测量和可证伪假设的伪实验。该实验严谨的处理方法将对 XAI 领域的科学知识的进一步贡献是必要的。
Sep, 2020
最近几年,机器学习和人工智能在社会中的影响非常显著,但是其应用也引起了严重关切。解释性人工智能(XAI)致力于为人类决策者提供可理解的机器学习模型预测解释,是可信任人工智能的基石。本文调查了基于逻辑的解释性人工智能(XAI)的技术和研究领域,并指出了当前非严谨方法的误区。
Jun, 2024
机器学习、可解释人工智能、基于逻辑的可解释性、距离限制解释和扩展性是该研究论文的主要关键词和研究领域,研究了用于计算和枚举大量输入的逻辑解释器性能扩展的新算法。
May, 2024
本文旨在突出和讨论当前 XAI 研究中的概念、伦理或方法论基础不牢的问题及其他误解,同时提出了使 XAI 成为更有实质性研究领域的步骤。
Jun, 2023
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
这篇论文讨论了符合科学历史的可解释人工智能 (XAI) 的框架问题,其原因追溯至现代机器学习(尤其是深度和强化学习)和对创造值得信赖的 AI 系统的关注,它的五个级别框架是 XAI 的关键组成部分。
May, 2020