基于线性代数的可解释人工智能分类
本文提出了一个新的分类法,以解决解释性人工智能领域中缺乏广泛接受的分类法的问题,并在现有定义和框架的基础上系统分析,重点关注透明性、可解释性、完整性、复杂性和可理解性等核心概念和关系,旨在为未来的研究建立共享词汇。通过使用 SHAP 包,我们在我们新开发的分类法的背景下量化和增强了一个用于从 MERLOT 中策划和推荐最合适的在线资源的推荐系统的可解释性。
Sep, 2023
本文提出一种基于系统论的统一、包容、用户中心分类法,旨在解决现有的以专家为中心的可解释人工智能方法的不足之处,以此评估适用于不同用户类型的解释方法的适当性和性能。
Mar, 2023
通过范畴论的框架,本文首次提出了统一的解释型人工智能理论,展示了如何使用所引入的理论对当前文献中研究的所有主要 XAI 系统进行分类,这一 XAI 基础理论方法可为未来的研究提供框架和指导。
Apr, 2023
深度神经网络的可解释性问题可以通过采用不同的科学解释模型,避免当前解释模糊性而产生的困惑,更有助于用 “可理解的人工智能” 标签避免 XAI 的混淆。
Mar, 2024
本文介绍了交互式线性插值方法及其在分类(企鹅物种,巧克力类型)和数量(足球薪资,房价)输出方面的应用,并试图通过提供局部解释来解释非线性模型的预测性能和线性特征的重要性。
May, 2022
本文探讨不同非线性分类场景下,解释性人工智能模型的表现,并通过一系列实验测试发现,当前流行的 XAI 方法往往无法显著提高准确性基线和边缘检测方法,甚至在不同模型结构下产生非常不同的解释,存在误解的风险。
Jun, 2023
介绍了 AI Explainability 360,这是一个开源的工具包,其中包含八种不同的最先进的解释方法和两个评估指标。通过提供分类法来帮助需要解释的实体导航解释方法的空间,并讨论了提高研究创新性的增强版本以将其更接近解释的使用者。
Sep, 2019