运用表达性布尔公式的可解释人工智能
提出一种从表格数据中提取可立即解释的人类可理解分类器的方法,并使用 Answer Set Programming 实现,其优点是分类器长度短且容易理解,与参考方法相比准确度相近。
Jun, 2024
本研究提出了一种基于规则的 Local Universal Explainer(LUX)模型,可以生成事实、反事实和视觉解释,通过修改决策树算法实现倾斜分割和与 SHAP 或 LIME 等特征重要性 XAI 方法的集成。该方法通过选择对解释模型的决策边界形成具有最高影响力的真实数据的高密度聚类的局部概念,而不使用数据生成,测试表明它在简单性、全局保真度和代表性等方面优于当前现有的 LORE、EXPLAN 和 Anchor 等基于规则的解释方法。
Oct, 2023
本文提出了一种交互式叠加方法,该方法利用机器学习模型的预测能力,同时允许用户指定决策边界的修改,从而实现在不需要重新训练模型的情况下对决策系统进行实时修改,并展示了用户反馈规则可以与机器学习预测结合以支持更少数据的学习。
Mar, 2022
本文探讨不同非线性分类场景下,解释性人工智能模型的表现,并通过一系列实验测试发现,当前流行的 XAI 方法往往无法显著提高准确性基线和边缘检测方法,甚至在不同模型结构下产生非常不同的解释,存在误解的风险。
Jun, 2023
本文提出了一种新的优化框架,用于学习准确且精简的两级布尔规则,通过线性规划松弛,块坐标下降和交替最小化等高效算法来更新优化函数,以实现准确性和可解释性之间的平衡。实验表明,我们的方法在准确性和可解释性之间提供了很好的权衡。
Jun, 2016
该论文研究了如何利用深度学习神经网络中学习到的内在特征,利用概念分析方法和归纳逻辑编程理论,构建基于符号的模型,实现黑盒机器学习的可解释性,体现其透明度和可靠性的要求。
May, 2021
该论文提出了一种基于线性代数的分类法,用于提供一个数学方法来区分和比较不同的可解释人工智能技术所产生的解释,特别是针对数据集属于 R^n 的情况下的局部解释。
Jan, 2023
提出了一种模型无关方法 DeltaXplainer,用于生成基于规则的解释,描述二进制分类器之间的差异,以实现对机器学习模型的理解和选择。通过在合成和真实数据集上进行实验,涵盖不同类型的概念漂移,验证了 DeltaXplainer 的有效性。
Sep, 2023
通过形式化说明解释是什么,提出一些公理和定义来澄清可解释的人工智能的数学角度。最后,我们提出了一个 Greybox XAI 框架,该框架通过使用符号知识库将 DNN 和透明模型组成。我们从数据集中提取知识库,并使用它来训练透明模型(即逻辑回归)。然后,我们在 RGB 图像上训练编码器 - 解码器架构,以产生类似于透明模型使用的知识库的输出。一旦两个模型独立地训练好后,它们就在组成的形式上用于形成可以解释的预测模型。我们展示了这种新的架构在几个数据集中是准确的和可以解释的。
Sep, 2022